- GENERIC_EXCEPTION_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
- get(RpcController, ClientProtos.GetRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService.BlockingInterface
-
- get(RpcController, ClientProtos.GetRequest, RpcCallback<ClientProtos.GetResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService
-
rpc Get(.hbase.pb.GetRequest) returns (.hbase.pb.GetResponse);
- get(RpcController, ClientProtos.GetRequest, RpcCallback<ClientProtos.GetResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService.Interface
-
rpc Get(.hbase.pb.GetRequest) returns (.hbase.pb.GetResponse);
- get(RpcController, ClientProtos.GetRequest, RpcCallback<ClientProtos.GetResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService.Stub
-
- GET_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
- GET_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
- getAction(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission.Builder
-
repeated .hbase.pb.Permission.Action action = 1;
- getAction(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission
-
repeated .hbase.pb.Permission.Action action = 1;
- getAction(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermissionOrBuilder
-
repeated .hbase.pb.Permission.Action action = 1;
- getAction(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission.Builder
-
repeated .hbase.pb.Permission.Action action = 2;
- getAction(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
repeated .hbase.pb.Permission.Action action = 2;
- getAction(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermissionOrBuilder
-
repeated .hbase.pb.Permission.Action action = 2;
- getAction(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
repeated .hbase.pb.Permission.Action action = 4;
- getAction(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
repeated .hbase.pb.Permission.Action action = 4;
- getAction(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermissionOrBuilder
-
repeated .hbase.pb.Permission.Action action = 4;
- getAction(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
repeated .hbase.pb.Action action = 3;
- getAction(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
repeated .hbase.pb.Action action = 3;
- getAction(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionOrBuilder
-
repeated .hbase.pb.Action action = 3;
- getAction() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
required .hbase.pb.FlushDescriptor.FlushAction action = 1;
- getAction() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
required .hbase.pb.FlushDescriptor.FlushAction action = 1;
- getAction() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
required .hbase.pb.FlushDescriptor.FlushAction action = 1;
- getActionBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
repeated .hbase.pb.Action action = 3;
- getActionBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
repeated .hbase.pb.Action action = 3;
- getActionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission.Builder
-
repeated .hbase.pb.Permission.Action action = 1;
- getActionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission
-
repeated .hbase.pb.Permission.Action action = 1;
- getActionCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermissionOrBuilder
-
repeated .hbase.pb.Permission.Action action = 1;
- getActionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission.Builder
-
repeated .hbase.pb.Permission.Action action = 2;
- getActionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
repeated .hbase.pb.Permission.Action action = 2;
- getActionCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermissionOrBuilder
-
repeated .hbase.pb.Permission.Action action = 2;
- getActionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
repeated .hbase.pb.Permission.Action action = 4;
- getActionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
repeated .hbase.pb.Permission.Action action = 4;
- getActionCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermissionOrBuilder
-
repeated .hbase.pb.Permission.Action action = 4;
- getActionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
repeated .hbase.pb.Action action = 3;
- getActionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
repeated .hbase.pb.Action action = 3;
- getActionCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionOrBuilder
-
repeated .hbase.pb.Action action = 3;
- getActionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission.Builder
-
repeated .hbase.pb.Permission.Action action = 1;
- getActionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission
-
repeated .hbase.pb.Permission.Action action = 1;
- getActionList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermissionOrBuilder
-
repeated .hbase.pb.Permission.Action action = 1;
- getActionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission.Builder
-
repeated .hbase.pb.Permission.Action action = 2;
- getActionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
repeated .hbase.pb.Permission.Action action = 2;
- getActionList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermissionOrBuilder
-
repeated .hbase.pb.Permission.Action action = 2;
- getActionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
repeated .hbase.pb.Permission.Action action = 4;
- getActionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
repeated .hbase.pb.Permission.Action action = 4;
- getActionList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermissionOrBuilder
-
repeated .hbase.pb.Permission.Action action = 4;
- getActionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
repeated .hbase.pb.Action action = 3;
- getActionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
repeated .hbase.pb.Action action = 3;
- getActionList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionOrBuilder
-
repeated .hbase.pb.Action action = 3;
- getActionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
repeated .hbase.pb.Action action = 3;
- getActionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
repeated .hbase.pb.Action action = 3;
- getActionOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionOrBuilder
-
repeated .hbase.pb.Action action = 3;
- getActionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
repeated .hbase.pb.Action action = 3;
- getActionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
repeated .hbase.pb.Action action = 3;
- getActionOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionOrBuilder
-
repeated .hbase.pb.Action action = 3;
- getAddr() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto.Builder
-
required string addr = 1;
- getAddr() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto
-
required string addr = 1;
- getAddr() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProtoOrBuilder
-
required string addr = 1;
- getAddrBytes() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto.Builder
-
required string addr = 1;
- getAddrBytes() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto
-
required string addr = 1;
- getAddrBytes() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProtoOrBuilder
-
required string addr = 1;
- getAgeOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink.Builder
-
required uint64 ageOfLastAppliedOp = 1;
- getAgeOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
required uint64 ageOfLastAppliedOp = 1;
- getAgeOfLastAppliedOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSinkOrBuilder
-
required uint64 ageOfLastAppliedOp = 1;
- getAgeOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint64 ageOfLastShippedOp = 2;
- getAgeOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required uint64 ageOfLastShippedOp = 2;
- getAgeOfLastShippedOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required uint64 ageOfLastShippedOp = 2;
- getAlgorithm() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required string algorithm = 1;
- getAlgorithm() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
required string algorithm = 1;
- getAlgorithm() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
required string algorithm = 1;
- getAlgorithmBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required string algorithm = 1;
- getAlgorithmBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
required string algorithm = 1;
- getAlgorithmBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
required string algorithm = 1;
- getAllowPartialResults() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool allow_partial_results = 18;
- getAllowPartialResults() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool allow_partial_results = 18;
- getAllowPartialResults() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool allow_partial_results = 18;
- getAssignSeqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional bool assign_seq_num = 3;
- getAssignSeqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
optional bool assign_seq_num = 3;
- getAssignSeqNum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
optional bool assign_seq_num = 3;
- getAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
optional int32 associated_cell_count = 3;
If Cell data is carried alongside in a cellblock, this is count of Cells in the cellblock.
- getAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
optional int32 associated_cell_count = 3;
If Cell data is carried alongside in a cellblock, this is count of Cells in the cellblock.
- getAssociatedCellCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntryOrBuilder
-
optional int32 associated_cell_count = 3;
If Cell data is carried alongside in a cellblock, this is count of Cells in the cellblock.
- getAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional int32 associated_cell_count = 8;
The below count is set when the associated cells are NOT
part of this protobuf message; they are passed alongside
and then this Message is a placeholder with metadata.
- getAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional int32 associated_cell_count = 8;
The below count is set when the associated cells are NOT
part of this protobuf message; they are passed alongside
and then this Message is a placeholder with metadata.
- getAssociatedCellCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional int32 associated_cell_count = 8;
The below count is set when the associated cells are NOT
part of this protobuf message; they are passed alongside
and then this Message is a placeholder with metadata.
- getAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional int32 associated_cell_count = 2;
The below count is set when the associated cells are
not part of this protobuf message; they are passed alongside
and then this Message is just a placeholder with metadata.
- getAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
optional int32 associated_cell_count = 2;
The below count is set when the associated cells are
not part of this protobuf message; they are passed alongside
and then this Message is just a placeholder with metadata.
- getAssociatedCellCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
optional int32 associated_cell_count = 2;
The below count is set when the associated cells are
not part of this protobuf message; they are passed alongside
and then this Message is just a placeholder with metadata.
- getAtomic() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
optional bool atomic = 2;
When set, run mutations as atomic unit.
- getAtomic() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
optional bool atomic = 2;
When set, run mutations as atomic unit.
- getAtomic() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionOrBuilder
-
optional bool atomic = 2;
When set, run mutations as atomic unit.
- getAttribute(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttribute(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttribute(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttribute(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttribute(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttribute(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttribute(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttribute(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttribute(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- getAttributeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- getAttributeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributeOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- getAttributes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAttributesOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- getAuth(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse.Builder
-
repeated bytes auth = 2;
- getAuth(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
repeated bytes auth = 2;
- getAuth(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponseOrBuilder
-
repeated bytes auth = 2;
- getAuth(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest.Builder
-
repeated bytes auth = 2;
- getAuth(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
repeated bytes auth = 2;
- getAuth(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequestOrBuilder
-
repeated bytes auth = 2;
- getAuth(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations.Builder
-
repeated uint32 auth = 2;
- getAuth(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
repeated uint32 auth = 2;
- getAuth(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizationsOrBuilder
-
repeated uint32 auth = 2;
- getAuthCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse.Builder
-
repeated bytes auth = 2;
- getAuthCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
repeated bytes auth = 2;
- getAuthCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponseOrBuilder
-
repeated bytes auth = 2;
- getAuthCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest.Builder
-
repeated bytes auth = 2;
- getAuthCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
repeated bytes auth = 2;
- getAuthCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequestOrBuilder
-
repeated bytes auth = 2;
- getAuthCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations.Builder
-
repeated uint32 auth = 2;
- getAuthCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
repeated uint32 auth = 2;
- getAuthCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizationsOrBuilder
-
repeated uint32 auth = 2;
- getAuthenticationToken(RpcController, AuthenticationProtos.GetAuthenticationTokenRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationService.BlockingInterface
-
- getAuthenticationToken(RpcController, AuthenticationProtos.GetAuthenticationTokenRequest, RpcCallback<AuthenticationProtos.GetAuthenticationTokenResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationService
-
rpc GetAuthenticationToken(.hbase.pb.GetAuthenticationTokenRequest) returns (.hbase.pb.GetAuthenticationTokenResponse);
- getAuthenticationToken(RpcController, AuthenticationProtos.GetAuthenticationTokenRequest, RpcCallback<AuthenticationProtos.GetAuthenticationTokenResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationService.Interface
-
rpc GetAuthenticationToken(.hbase.pb.GetAuthenticationTokenRequest) returns (.hbase.pb.GetAuthenticationTokenResponse);
- getAuthenticationToken(RpcController, AuthenticationProtos.GetAuthenticationTokenRequest, RpcCallback<AuthenticationProtos.GetAuthenticationTokenResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationService.Stub
-
- getAuthList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse.Builder
-
repeated bytes auth = 2;
- getAuthList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
repeated bytes auth = 2;
- getAuthList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponseOrBuilder
-
repeated bytes auth = 2;
- getAuthList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest.Builder
-
repeated bytes auth = 2;
- getAuthList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
repeated bytes auth = 2;
- getAuthList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequestOrBuilder
-
repeated bytes auth = 2;
- getAuthList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations.Builder
-
repeated uint32 auth = 2;
- getAuthList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
repeated uint32 auth = 2;
- getAuthList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizationsOrBuilder
-
repeated uint32 auth = 2;
- getAuthMethod() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
optional string auth_method = 2;
- getAuthMethod() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
optional string auth_method = 2;
- getAuthMethod() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponseOrBuilder
-
optional string auth_method = 2;
- getAuthMethodBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
optional string auth_method = 2;
- getAuthMethodBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
optional string auth_method = 2;
- getAuthMethodBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponseOrBuilder
-
optional string auth_method = 2;
- getAuths(RpcController, VisibilityLabelsProtos.GetAuthsRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService.BlockingInterface
-
- getAuths(RpcController, VisibilityLabelsProtos.GetAuthsRequest, RpcCallback<VisibilityLabelsProtos.GetAuthsResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService
-
rpc getAuths(.hbase.pb.GetAuthsRequest) returns (.hbase.pb.GetAuthsResponse);
- getAuths(RpcController, VisibilityLabelsProtos.GetAuthsRequest, RpcCallback<VisibilityLabelsProtos.GetAuthsResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService.Interface
-
rpc getAuths(.hbase.pb.GetAuthsRequest) returns (.hbase.pb.GetAuthsResponse);
- getAuths(RpcController, VisibilityLabelsProtos.GetAuthsRequest, RpcCallback<VisibilityLabelsProtos.GetAuthsResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService.Stub
-
- getBackupMasters(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMasters(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMasters(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBackupMastersOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- getBalancerOn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional bool balancer_on = 9;
- getBalancerOn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional bool balancer_on = 9;
- getBalancerOn() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional bool balancer_on = 9;
- getBalancerOn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState.Builder
-
optional bool balancer_on = 1;
- getBalancerOn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState
-
optional bool balancer_on = 1;
- getBalancerOn() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerStateOrBuilder
-
optional bool balancer_on = 1;
- getBandwidth() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
optional int64 bandwidth = 7;
- getBandwidth() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
optional int64 bandwidth = 7;
- getBandwidth() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
optional int64 bandwidth = 7;
- getBatchSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 batch_size = 9;
- getBatchSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint32 batch_size = 9;
- getBatchSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint32 batch_size = 9;
- getBigdecimalMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg.Builder
-
required bytes bigdecimal_msg = 1;
- getBigdecimalMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg
-
required bytes bigdecimal_msg = 1;
- getBigdecimalMsg() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsgOrBuilder
-
required bytes bigdecimal_msg = 1;
- getBitwiseOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
required .hbase.pb.BitComparator.BitwiseOp bitwise_op = 2;
- getBitwiseOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
required .hbase.pb.BitComparator.BitwiseOp bitwise_op = 2;
- getBitwiseOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparatorOrBuilder
-
required .hbase.pb.BitComparator.BitwiseOp bitwise_op = 2;
- getBulkloadSeqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required int64 bulkload_seq_num = 4;
- getBulkloadSeqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
required int64 bulkload_seq_num = 4;
- getBulkloadSeqNum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
required int64 bulkload_seq_num = 4;
- getBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional string bulk_token = 5;
- getBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
optional string bulk_token = 5;
- getBulkToken() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
optional string bulk_token = 5;
- getBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
required string bulk_token = 1;
- getBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
required string bulk_token = 1;
- getBulkToken() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequestOrBuilder
-
required string bulk_token = 1;
- getBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse.Builder
-
required string bulk_token = 1;
- getBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse
-
required string bulk_token = 1;
- getBulkToken() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponseOrBuilder
-
required string bulk_token = 1;
- getBulkTokenBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional string bulk_token = 5;
- getBulkTokenBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
optional string bulk_token = 5;
- getBulkTokenBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
optional string bulk_token = 5;
- getBulkTokenBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
required string bulk_token = 1;
- getBulkTokenBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
required string bulk_token = 1;
- getBulkTokenBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequestOrBuilder
-
required string bulk_token = 1;
- getBulkTokenBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse.Builder
-
required string bulk_token = 1;
- getBulkTokenBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse
-
required string bulk_token = 1;
- getBulkTokenBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponseOrBuilder
-
required string bulk_token = 1;
- getBypassGlobals() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional bool bypass_globals = 1 [default = false];
- getBypassGlobals() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
optional bool bypass_globals = 1 [default = false];
- getBypassGlobals() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotasOrBuilder
-
optional bool bypass_globals = 1 [default = false];
- getCacheBlocks() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool cache_blocks = 7 [default = true];
- getCacheBlocks() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional bool cache_blocks = 7 [default = true];
- getCacheBlocks() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional bool cache_blocks = 7 [default = true];
- getCacheBlocks() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool cache_blocks = 8 [default = true];
- getCacheBlocks() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool cache_blocks = 8 [default = true];
- getCacheBlocks() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool cache_blocks = 8 [default = true];
- getCaching() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 caching = 17;
- getCaching() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint32 caching = 17;
- getCaching() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint32 caching = 17;
- getCall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- getCall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- getCall() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequestOrBuilder
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- getCallBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- getCallId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional uint32 call_id = 1;
Monotonically increasing call_id to keep track of RPC requests and their response
- getCallId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional uint32 call_id = 1;
Monotonically increasing call_id to keep track of RPC requests and their response
- getCallId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional uint32 call_id = 1;
Monotonically increasing call_id to keep track of RPC requests and their response
- getCallId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional uint32 call_id = 1;
- getCallId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
optional uint32 call_id = 1;
- getCallId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeaderOrBuilder
-
optional uint32 call_id = 1;
- getCallOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- getCallOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- getCallOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequestOrBuilder
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- getCanHint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter.Builder
-
optional bool can_hint = 2;
- getCanHint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
optional bool can_hint = 2;
- getCanHint() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilterOrBuilder
-
optional bool can_hint = 2;
- getCell(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCell(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCell(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellBlockCodecClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- getCellBlockCodecClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- getCellBlockCodecClass() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- getCellBlockCodecClassBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- getCellBlockCodecClassBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- getCellBlockCodecClassBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- getCellBlockCompressorClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- getCellBlockCompressorClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- getCellBlockCompressorClass() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- getCellBlockCompressorClassBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- getCellBlockCompressorClassBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- getCellBlockCompressorClassBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- getCellBlockMeta() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- getCellBlockMeta() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- getCellBlockMeta() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- getCellBlockMeta() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- getCellBlockMeta() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- getCellBlockMeta() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeaderOrBuilder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- getCellBlockMetaBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- getCellBlockMetaBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- getCellBlockMetaOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- getCellBlockMetaOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- getCellBlockMetaOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- getCellBlockMetaOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- getCellBlockMetaOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- getCellBlockMetaOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeaderOrBuilder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- getCellBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellCodecClsName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional string cell_codec_cls_name = 5;
- getCellCodecClsName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional string cell_codec_cls_name = 5;
- getCellCodecClsName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional string cell_codec_cls_name = 5;
- getCellCodecClsNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional string cell_codec_cls_name = 5;
- getCellCodecClsNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional string cell_codec_cls_name = 5;
- getCellCodecClsNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional string cell_codec_cls_name = 5;
- getCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- getCellsPerResult(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated uint32 cells_per_result = 1;
This field is filled in if we are doing cellblocks.
- getCellsPerResult(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated uint32 cells_per_result = 1;
This field is filled in if we are doing cellblocks.
- getCellsPerResult(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated uint32 cells_per_result = 1;
This field is filled in if we are doing cellblocks.
- getCellsPerResultCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated uint32 cells_per_result = 1;
This field is filled in if we are doing cellblocks.
- getCellsPerResultCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated uint32 cells_per_result = 1;
This field is filled in if we are doing cellblocks.
- getCellsPerResultCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated uint32 cells_per_result = 1;
This field is filled in if we are doing cellblocks.
- getCellsPerResultList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated uint32 cells_per_result = 1;
This field is filled in if we are doing cellblocks.
- getCellsPerResultList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated uint32 cells_per_result = 1;
This field is filled in if we are doing cellblocks.
- getCellsPerResultList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated uint32 cells_per_result = 1;
This field is filled in if we are doing cellblocks.
- getCellType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional .hbase.pb.CellType cell_type = 5;
- getCellType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional .hbase.pb.CellType cell_type = 5;
- getCellType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional .hbase.pb.CellType cell_type = 5;
- getCfTimeRange(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRange(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRange(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRange(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRange(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRange(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- getCfTimeRangeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getCfTimeRangeOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- getChance() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter.Builder
-
required float chance = 1;
- getChance() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter
-
required float chance = 1;
- getChance() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilterOrBuilder
-
required float chance = 1;
- getChannel() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingService.Stub
-
- getChannel() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestRpcServiceProtos.TestProtobufRpcProto.Stub
-
- getChannel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService.Stub
-
- getChannel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Stub
-
- getChannel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationService.Stub
-
- getChannel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService.Stub
-
- getChannel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationService.Stub
-
- getChannel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.RowProcessorService.Stub
-
- getChannel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService.Stub
-
- getCharset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required string charset = 3;
- getCharset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
required string charset = 3;
- getCharset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
required string charset = 3;
- getCharsetBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required string charset = 3;
- getCharsetBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
required string charset = 3;
- getCharsetBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
required string charset = 3;
- getClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional string class_name = 1;
- getClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
optional string class_name = 1;
- getClassName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
optional string class_name = 1;
- getClassNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional string class_name = 1;
- getClassNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
optional string class_name = 1;
- getClassNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
optional string class_name = 1;
- getClientHandlesHeartbeats() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool client_handles_heartbeats = 8;
- getClientHandlesHeartbeats() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional bool client_handles_heartbeats = 8;
- getClientHandlesHeartbeats() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional bool client_handles_heartbeats = 8;
- getClientHandlesPartials() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool client_handles_partials = 7;
- getClientHandlesPartials() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional bool client_handles_partials = 7;
- getClientHandlesPartials() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional bool client_handles_partials = 7;
- getClosed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse.Builder
-
required bool closed = 1;
- getClosed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse
-
required bool closed = 1;
- getClosed() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponseOrBuilder
-
required bool closed = 1;
- getCloseScanner() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool close_scanner = 5;
- getCloseScanner() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional bool close_scanner = 5;
- getCloseScanner() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional bool close_scanner = 5;
- getClosestRowBefore() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool closest_row_before = 11 [default = false];
If the row to get doesn't exist, return the
closest row before.
- getClosestRowBefore() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional bool closest_row_before = 11 [default = false];
If the row to get doesn't exist, return the
closest row before.
- getClosestRowBefore() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional bool closest_row_before = 11 [default = false];
If the row to get doesn't exist, return the
closest row before.
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId.Builder
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- getClusterId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterIdOrBuilder
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ClusterId cluster_id = 5;
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional .hbase.pb.ClusterId cluster_id = 5;
- getClusterId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional .hbase.pb.ClusterId cluster_id = 5;
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
已过时。
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
已过时。
- getClusterId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
已过时。
- getClusterIdBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ClusterId cluster_id = 5;
- getClusterIdBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
已过时。
- getClusterIdBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId.Builder
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- getClusterIdBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- getClusterIdBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterIdOrBuilder
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- getClusterIdOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ClusterId cluster_id = 5;
- getClusterIdOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional .hbase.pb.ClusterId cluster_id = 5;
- getClusterIdOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional .hbase.pb.ClusterId cluster_id = 5;
- getClusterIdOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
已过时。
- getClusterIdOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
已过时。
- getClusterIdOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
已过时。
- getClusterIds(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIds(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIds(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterIdsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- getClusterkey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- getClusterkey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- getClusterkey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- getClusterkeyBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- getClusterkeyBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- getClusterkeyBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- getColumn(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.Column column = 2;
- getColumn(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.Column column = 2;
- getColumn(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.Column column = 2;
- getColumn(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.Column column = 1;
- getColumn(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.Column column = 1;
- getColumn(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.Column column = 1;
- getColumnBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.Column column = 2;
- getColumnBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.Column column = 1;
- getColumnBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.Column column = 2;
- getColumnBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.Column column = 1;
- getColumnCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.Column column = 2;
- getColumnCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.Column column = 2;
- getColumnCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.Column column = 2;
- getColumnCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.Column column = 1;
- getColumnCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.Column column = 1;
- getColumnCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.Column column = 1;
- getColumnFamilies(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamilies(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamilies(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamiliesOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- getColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
optional bytes column_family = 2;
- getColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
optional bytes column_family = 2;
- getColumnFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilterOrBuilder
-
optional bytes column_family = 2;
- getColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bytes column_family = 1;
- getColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
optional bytes column_family = 1;
- getColumnFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
optional bytes column_family = 1;
- getColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
required bytes column_family = 1;
- getColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
required bytes column_family = 1;
- getColumnFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRangeOrBuilder
-
required bytes column_family = 1;
- getColumnList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.Column column = 2;
- getColumnList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.Column column = 2;
- getColumnList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.Column column = 2;
- getColumnList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.Column column = 1;
- getColumnList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.Column column = 1;
- getColumnList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.Column column = 1;
- getColumnOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
optional bytes column_offset = 3;
- getColumnOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
optional bytes column_offset = 3;
- getColumnOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilterOrBuilder
-
optional bytes column_offset = 3;
- getColumnOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.Column column = 2;
- getColumnOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.Column column = 2;
- getColumnOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.Column column = 2;
- getColumnOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.Column column = 1;
- getColumnOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.Column column = 1;
- getColumnOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.Column column = 1;
- getColumnOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.Column column = 2;
- getColumnOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
repeated .hbase.pb.Column column = 2;
- getColumnOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
repeated .hbase.pb.Column column = 2;
- getColumnOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.Column column = 1;
- getColumnOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
repeated .hbase.pb.Column column = 1;
- getColumnOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
repeated .hbase.pb.Column column = 1;
- getColumnQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
optional bytes column_qualifier = 3;
- getColumnQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
optional bytes column_qualifier = 3;
- getColumnQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilterOrBuilder
-
optional bytes column_qualifier = 3;
- getColumnQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bytes column_qualifier = 2;
- getColumnQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
optional bytes column_qualifier = 2;
- getColumnQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
optional bytes column_qualifier = 2;
- getColumnValue(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValue(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValue(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getColumnValueOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- getCompactionInput(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInput(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInput(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInputBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInputBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInputBytes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInputCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInputCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInputCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInputList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInputList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionInputList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
repeated string compaction_input = 4;
relative to store dir
- getCompactionOutput(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
repeated string compaction_output = 5;
- getCompactionOutput(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
repeated string compaction_output = 5;
- getCompactionOutput(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
repeated string compaction_output = 5;
- getCompactionOutputBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
repeated string compaction_output = 5;
- getCompactionOutputBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
repeated string compaction_output = 5;
- getCompactionOutputBytes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
repeated string compaction_output = 5;
- getCompactionOutputCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
repeated string compaction_output = 5;
- getCompactionOutputCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
repeated string compaction_output = 5;
- getCompactionOutputCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
repeated string compaction_output = 5;
- getCompactionOutputList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
repeated string compaction_output = 5;
- getCompactionOutputList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
repeated string compaction_output = 5;
- getCompactionOutputList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
repeated string compaction_output = 5;
- getCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
optional int32 compactionPressure = 3 [default = 0];
Compaction pressure.
- getCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
optional int32 compactionPressure = 3 [default = 0];
Compaction pressure.
- getCompactionPressure() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStatsOrBuilder
-
optional int32 compactionPressure = 3 [default = 0];
Compaction pressure.
- getCompactionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
optional bool compaction_state = 2;
- getCompactionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
optional bool compaction_state = 2;
- getCompactionState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequestOrBuilder
-
optional bool compaction_state = 2;
- getCompactionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
optional .hbase.pb.GetRegionInfoResponse.CompactionState compaction_state = 2;
optional bool DEPRECATED_isRecovering = 3;
- getCompactionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
optional .hbase.pb.GetRegionInfoResponse.CompactionState compaction_state = 2;
optional bool DEPRECATED_isRecovering = 3;
- getCompactionState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponseOrBuilder
-
optional .hbase.pb.GetRegionInfoResponse.CompactionState compaction_state = 2;
optional bool DEPRECATED_isRecovering = 3;
- getComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparableOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- getComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required .hbase.pb.Comparator comparator = 5;
- getComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required .hbase.pb.Comparator comparator = 5;
- getComparator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required .hbase.pb.Comparator comparator = 5;
- getComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- getComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
required .hbase.pb.Comparator comparator = 4;
- getComparator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilterOrBuilder
-
required .hbase.pb.Comparator comparator = 4;
- getComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
optional .hbase.pb.Comparator comparator = 2;
- getComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
optional .hbase.pb.Comparator comparator = 2;
- getComparator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilterOrBuilder
-
optional .hbase.pb.Comparator comparator = 2;
- getComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- getComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
required .hbase.pb.Comparator comparator = 4;
- getComparator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
required .hbase.pb.Comparator comparator = 4;
- getComparatorBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required .hbase.pb.Comparator comparator = 5;
- getComparatorBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- getComparatorBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
optional .hbase.pb.Comparator comparator = 2;
- getComparatorBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- getComparatorClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional string comparator_class_name = 11;
- getComparatorClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional string comparator_class_name = 11;
- getComparatorClassName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional string comparator_class_name = 11;
- getComparatorClassNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional string comparator_class_name = 11;
- getComparatorClassNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional string comparator_class_name = 11;
- getComparatorClassNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional string comparator_class_name = 11;
- getComparatorOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required .hbase.pb.Comparator comparator = 5;
- getComparatorOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required .hbase.pb.Comparator comparator = 5;
- getComparatorOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required .hbase.pb.Comparator comparator = 5;
- getComparatorOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- getComparatorOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
required .hbase.pb.Comparator comparator = 4;
- getComparatorOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilterOrBuilder
-
required .hbase.pb.Comparator comparator = 4;
- getComparatorOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
optional .hbase.pb.Comparator comparator = 2;
- getComparatorOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
optional .hbase.pb.Comparator comparator = 2;
- getComparatorOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilterOrBuilder
-
optional .hbase.pb.Comparator comparator = 2;
- getComparatorOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- getComparatorOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
required .hbase.pb.Comparator comparator = 4;
- getComparatorOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
required .hbase.pb.Comparator comparator = 4;
- getCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- getCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required .hbase.pb.CompareType compare_op = 3;
- getCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
required .hbase.pb.CompareType compare_op = 3;
- getCompareOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilterOrBuilder
-
required .hbase.pb.CompareType compare_op = 3;
- getCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
required .hbase.pb.CompareType compare_op = 1;
- getCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
required .hbase.pb.CompareType compare_op = 1;
- getCompareOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilterOrBuilder
-
required .hbase.pb.CompareType compare_op = 1;
- getCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
required .hbase.pb.CompareType compare_op = 3;
- getCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
required .hbase.pb.CompareType compare_op = 3;
- getCompareOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
required .hbase.pb.CompareType compare_op = 3;
- getCompareType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required .hbase.pb.CompareType compare_type = 4;
- getCompareType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required .hbase.pb.CompareType compare_type = 4;
- getCompareType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required .hbase.pb.CompareType compare_type = 4;
- getCompleteSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 complete_sequence_id = 15;
the most recent sequence Id from cache flush
- getCompleteSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 complete_sequence_id = 15;
the most recent sequence Id from cache flush
- getCompleteSequenceId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 complete_sequence_id = 15;
the most recent sequence Id from cache flush
- getCompressionCodec() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 compression_codec = 12;
- getCompressionCodec() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint32 compression_codec = 12;
- getCompressionCodec() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint32 compression_codec = 12;
- getCondition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- getCondition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
optional .hbase.pb.Condition condition = 3;
- getCondition() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequestOrBuilder
-
optional .hbase.pb.Condition condition = 3;
- getCondition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- getCondition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
optional .hbase.pb.Condition condition = 3;
- getCondition() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
optional .hbase.pb.Condition condition = 3;
- getConditionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- getConditionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- getConditionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- getConditionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
optional .hbase.pb.Condition condition = 3;
- getConditionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequestOrBuilder
-
optional .hbase.pb.Condition condition = 3;
- getConditionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- getConditionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
optional .hbase.pb.Condition condition = 3;
- getConditionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
optional .hbase.pb.Condition condition = 3;
- getConfiguration(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfiguration(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfiguration(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfiguration(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfiguration(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfiguration(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptorOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfiguration(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfiguration(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfiguration(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfiguration(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfiguration(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfiguration(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfiguration(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfiguration(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfiguration(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptorOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptorOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptorOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- getConfigurationOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptorOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- getConfigurationOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConfigurationOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- getConsistency() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.Consistency consistency = 12 [default = STRONG];
- getConsistency() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional .hbase.pb.Consistency consistency = 12 [default = STRONG];
- getConsistency() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional .hbase.pb.Consistency consistency = 12 [default = STRONG];
- getConsistency() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Consistency consistency = 16 [default = STRONG];
- getConsistency() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional .hbase.pb.Consistency consistency = 16 [default = STRONG];
- getConsistency() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional .hbase.pb.Consistency consistency = 16 [default = STRONG];
- getCoprocessors(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessors(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessors(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCoprocessorsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- getCopyFile() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional bool copy_file = 6 [default = false];
- getCopyFile() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
optional bool copy_file = 6 [default = false];
- getCopyFile() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
optional bool copy_file = 6 [default = false];
- getCount() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse.Builder
-
required int32 count = 1;
- getCount() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse
-
required int32 count = 1;
- getCount() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponseOrBuilder
-
required int32 count = 1;
- getCount() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse.Builder
-
required int32 count = 1;
- getCount() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse
-
required int32 count = 1;
- getCount() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponseOrBuilder
-
required int32 count = 1;
- getCreationTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
optional int64 creation_time = 3 [default = 0];
- getCreationTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
optional int64 creation_time = 3 [default = 0];
- getCreationTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
optional int64 creation_time = 3 [default = 0];
- getCreationTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional int64 creation_time = 3 [default = 0];
- getCreationTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional int64 creation_time = 3 [default = 0];
- getCreationTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional int64 creation_time = 3 [default = 0];
- getCurrentCompactedKVs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 current_compacted_KVs = 11;
the completed count of key values in currently running compaction
- getCurrentCompactedKVs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 current_compacted_KVs = 11;
the completed count of key values in currently running compaction
- getCurrentCompactedKVs() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 current_compacted_KVs = 11;
the completed count of key values in currently running compaction
- getCursor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- getCursor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- getCursor() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- getCursorBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- getCursorOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- getCursorOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- getCursorOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- getData() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required bytes data = 3;
- getData() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
required bytes data = 3;
- getData() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
required bytes data = 3;
- getData(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getData(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getData(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataIndexCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 data_index_count = 5;
- getDataIndexCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint32 data_index_count = 5;
- getDataIndexCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint32 data_index_count = 5;
- getDataList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataLocality() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional float data_locality = 16;
The current data locality for region in the regionserver
- getDataLocality() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional float data_locality = 16;
The current data locality for region in the regionserver
- getDataLocality() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional float data_locality = 16;
The current data locality for region in the regionserver
- getDataOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDataOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- getDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string date = 5;
- getDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string date = 5;
- getDate() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string date = 5;
- getDateBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string date = 5;
- getDateBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string date = 5;
- getDateBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string date = 5;
- getDeadServers(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServers(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServers(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeadServersOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- getDeclaringClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string declaring_class = 1;
- getDeclaringClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional string declaring_class = 1;
- getDeclaringClass() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional string declaring_class = 1;
- getDeclaringClassBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string declaring_class = 1;
- getDeclaringClassBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional string declaring_class = 1;
- getDeclaringClassBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional string declaring_class = 1;
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyRequestProto
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyResponseProto
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.NullComparator
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterAllFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyOnlyFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.EmptyMsg
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaUsage
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALTrailer
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState
-
- getDefaultInstance() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyRequestProto.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyRequestProto
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyResponseProto.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyResponseProto
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.NullComparator.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.NullComparator
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterAllFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterAllFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyOnlyFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyOnlyFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.EmptyMsg.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.EmptyMsg
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaUsage.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaUsage
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALTrailer.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALTrailer
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
- getDefaultInstanceForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
- getDeleteType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional .hbase.pb.MutationProto.DeleteType delete_type = 4;
- getDeleteType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
optional .hbase.pb.MutationProto.DeleteType delete_type = 4;
- getDeleteType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValueOrBuilder
-
optional .hbase.pb.MutationProto.DeleteType delete_type = 4;
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingService
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyRequestProto.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyRequestProto
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyResponseProto.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyResponseProto
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestRpcServiceProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestRpcServiceProtos.TestProtobufRpcProto
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Action
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Type
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.CompactionState
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.RegionOpeningState
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationService
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Kind
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellType
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.CellProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Consistency
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.DeleteType
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Durability
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.MutationType
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.ReadType
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.Option
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.State
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.BitwiseOp
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.NullComparator.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.NullComparator
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterAllFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterAllFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Operator
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyOnlyFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyOnlyFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FSProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Range
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.CompareType
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.EmptyMsg.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.EmptyMsg
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.RegionSpecifierType
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Type
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState.State
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeUnit
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationService
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaScope
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaType
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaUsage.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaUsage
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceViolationPolicy
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleType
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.RowProcessorService
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Type
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.TableProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.FlushAction
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.EventType
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.ScopeType
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALTrailer.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALTrailer
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState.State
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState.State
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
- getDescriptor() - 枚举 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.State
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
- getDescriptor() - 类 中的静态方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingService
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyRequestProto.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyResponseProto.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestRpcServiceProtos.TestProtobufRpcProto
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Action
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Type
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.CompactionState
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.RegionOpeningState
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationService
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Kind
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellType
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Consistency
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.DeleteType
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Durability
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.MutationType
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.ReadType
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.Option
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.State
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.BitwiseOp
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.NullComparator.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterAllFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Operator
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyOnlyFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Range
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.CompareType
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.EmptyMsg.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.RegionSpecifierType
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Type
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState.State
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeUnit
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationService
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaScope
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaType
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaUsage.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceViolationPolicy
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleType
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.RowProcessorService
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Type
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.FlushAction
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.EventType
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.ScopeType
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALTrailer.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState.State
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState.State
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
- getDescriptorForType() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.State
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState.Builder
-
- getDescriptorForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
- getDestinationServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional .hbase.pb.ServerName destination_server = 4;
- getDestinationServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
optional .hbase.pb.ServerName destination_server = 4;
- getDestinationServer() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
optional .hbase.pb.ServerName destination_server = 4;
- getDestinationServerBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional .hbase.pb.ServerName destination_server = 4;
- getDestinationServerOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional .hbase.pb.ServerName destination_server = 4;
- getDestinationServerOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
optional .hbase.pb.ServerName destination_server = 4;
- getDestinationServerOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
optional .hbase.pb.ServerName destination_server = 4;
- getDiff() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest.Builder
-
required int32 diff = 1;
- getDiff() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest
-
required int32 diff = 1;
- getDiff() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequestOrBuilder
-
required int32 diff = 1;
- getDoNotRetry() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional bool do_not_retry = 5;
Set if we are NOT to retry on receipt of this exception
- getDoNotRetry() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional bool do_not_retry = 5;
Set if we are NOT to retry on receipt of this exception
- getDoNotRetry() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional bool do_not_retry = 5;
Set if we are NOT to retry on receipt of this exception
- getDoubleMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg.Builder
-
required double double_msg = 1;
- getDoubleMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg
-
required double double_msg = 1;
- getDoubleMsg() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsgOrBuilder
-
required double double_msg = 1;
- getDropDependentColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
optional bool drop_dependent_column = 4;
- getDropDependentColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
optional bool drop_dependent_column = 4;
- getDropDependentColumn() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilterOrBuilder
-
optional bool drop_dependent_column = 4;
- getDurability() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.MutationProto.Durability durability = 6 [default = USE_DEFAULT];
- getDurability() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional .hbase.pb.MutationProto.Durability durability = 6 [default = USE_DEFAULT];
- getDurability() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional .hbase.pb.MutationProto.Durability durability = 6 [default = USE_DEFAULT];
- getEffectiveUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
required string effective_user = 1;
- getEffectiveUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
required string effective_user = 1;
- getEffectiveUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformationOrBuilder
-
required string effective_user = 1;
- getEffectiveUserBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
required string effective_user = 1;
- getEffectiveUserBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
required string effective_user = 1;
- getEffectiveUserBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformationOrBuilder
-
required string effective_user = 1;
- getEnabled() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState.Builder
-
optional bool enabled = 1;
- getEnabled() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState
-
optional bool enabled = 1;
- getEnabled() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchStateOrBuilder
-
optional bool enabled = 1;
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required bytes encoded_region_name = 2;
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
required bytes encoded_region_name = 2;
- getEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
required bytes encoded_region_name = 2;
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required bytes encoded_region_name = 2;
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
required bytes encoded_region_name = 2;
- getEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
required bytes encoded_region_name = 2;
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
required bytes encoded_region_name = 3;
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
required bytes encoded_region_name = 3;
- getEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
required bytes encoded_region_name = 3;
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
required bytes encoded_region_name = 3;
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
required bytes encoded_region_name = 3;
- getEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
required bytes encoded_region_name = 3;
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required bytes encoded_region_name = 1;
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
required bytes encoded_region_name = 1;
- getEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
required bytes encoded_region_name = 1;
- getEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional bytes encryption_key = 13;
- getEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional bytes encryption_key = 13;
- getEncryptionKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional bytes encryption_key = 13;
- getEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional bytes encryption_key = 2;
- getEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional bytes encryption_key = 2;
- getEncryptionKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional bytes encryption_key = 2;
- getEndKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bytes end_key = 4;
- getEndKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
optional bytes end_key = 4;
- getEndKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
optional bytes end_key = 4;
- getEngine() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
optional string engine = 4;
- getEngine() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
optional string engine = 4;
- getEngine() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
optional string engine = 4;
- getEngineBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
optional string engine = 4;
- getEngineBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
optional string engine = 4;
- getEngineBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
optional string engine = 4;
- getEntry(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntry(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntry(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 entry_count = 7;
- getEntryCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 entry_count = 7;
- getEntryCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 entry_count = 7;
- getEntryList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
repeated .hbase.pb.WALEntry entry = 1;
- getEntryOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
repeated .hbase.pb.WALEntry entry = 1;
- getErrorInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional bytes error_info = 3;
- getErrorInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
optional bytes error_info = 3;
- getErrorInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
optional bytes error_info = 3;
- getEventType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
required .hbase.pb.RegionEventDescriptor.EventType event_type = 1;
- getEventType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
required .hbase.pb.RegionEventDescriptor.EventType event_type = 1;
- getEventType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
required .hbase.pb.RegionEventDescriptor.EventType event_type = 1;
- getException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- getException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- getException() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResultOrBuilder
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- getException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.NameBytesPair exception = 3;
- getException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional .hbase.pb.NameBytesPair exception = 3;
- getException() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional .hbase.pb.NameBytesPair exception = 3;
- getException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- getException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- getException() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeaderOrBuilder
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- getExceptionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- getExceptionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.NameBytesPair exception = 3;
- getExceptionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- getExceptionClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- getExceptionClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- getExceptionClassName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- getExceptionClassNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- getExceptionClassNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- getExceptionClassNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- getExceptionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- getExceptionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- getExceptionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResultOrBuilder
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- getExceptionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.NameBytesPair exception = 3;
- getExceptionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional .hbase.pb.NameBytesPair exception = 3;
- getExceptionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional .hbase.pb.NameBytesPair exception = 3;
- getExceptionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- getExceptionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- getExceptionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeaderOrBuilder
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- getExistenceOnly() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool existence_only = 10 [default = false];
The result isn't asked for, just check for
the existence.
- getExistenceOnly() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional bool existence_only = 10 [default = false];
The result isn't asked for, just check for
the existence.
- getExistenceOnly() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional bool existence_only = 10 [default = false];
The result isn't asked for, just check for
the existence.
- getExists() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional bool exists = 3;
used for Get to check existence only.
- getExists() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
optional bool exists = 3;
used for Get to check existence only.
- getExists() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
optional bool exists = 3;
used for Get to check existence only.
- getExpirationDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
required int64 expiration_date = 2;
- getExpirationDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
required int64 expiration_date = 2;
- getExpirationDate() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKeyOrBuilder
-
required int64 expiration_date = 2;
- getExpirationDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
optional int64 expiration_date = 5;
- getExpirationDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
optional int64 expiration_date = 5;
- getExpirationDate() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
optional int64 expiration_date = 5;
- getExpression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility.Builder
-
required string expression = 1;
- getExpression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility
-
required string expression = 1;
- getExpression() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibilityOrBuilder
-
required string expression = 1;
- getExpressionBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility.Builder
-
required string expression = 1;
- getExpressionBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility
-
required string expression = 1;
- getExpressionBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibilityOrBuilder
-
required string expression = 1;
- getFamilies(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
repeated bytes families = 2;
- getFamilies(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
repeated bytes families = 2;
- getFamilies(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCFOrBuilder
-
repeated bytes families = 2;
- getFamiliesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
repeated bytes families = 2;
- getFamiliesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
repeated bytes families = 2;
- getFamiliesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCFOrBuilder
-
repeated bytes families = 2;
- getFamiliesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
repeated bytes families = 2;
- getFamiliesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
repeated bytes families = 2;
- getFamiliesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCFOrBuilder
-
repeated bytes families = 2;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional bytes family = 2;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
optional bytes family = 2;
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermissionOrBuilder
-
optional bytes family = 2;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
optional bytes family = 3;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
optional bytes family = 3;
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequestOrBuilder
-
optional bytes family = 3;
- getFamily(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
repeated bytes family = 2;
- getFamily(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
repeated bytes family = 2;
- getFamily(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequestOrBuilder
-
repeated bytes family = 2;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes family = 2;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional bytes family = 2;
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional bytes family = 2;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
required bytes family = 2;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
required bytes family = 2;
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
required bytes family = 2;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
required bytes family = 1;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
required bytes family = 1;
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPathOrBuilder
-
required bytes family = 1;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column.Builder
-
required bytes family = 1;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
required bytes family = 1;
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ColumnOrBuilder
-
required bytes family = 1;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required bytes family = 2;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required bytes family = 2;
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required bytes family = 2;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
required bytes family = 1;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
required bytes family = 1;
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValueOrBuilder
-
required bytes family = 1;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required bytes family = 1;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
required bytes family = 1;
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilterOrBuilder
-
required bytes family = 1;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope.Builder
-
required bytes family = 1;
- getFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
required bytes family = 1;
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScopeOrBuilder
-
required bytes family = 1;
- getFamilyCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
repeated bytes family = 2;
- getFamilyCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
repeated bytes family = 2;
- getFamilyCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequestOrBuilder
-
repeated bytes family = 2;
- getFamilyFiles(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFiles(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFiles(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifestOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifestOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifestOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifestOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyFilesOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifestOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- getFamilyList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
repeated bytes family = 2;
- getFamilyList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
repeated bytes family = 2;
- getFamilyList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequestOrBuilder
-
repeated bytes family = 2;
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId.Builder
-
required bytes family_name = 1;
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
required bytes family_name = 1;
- getFamilyName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceIdOrBuilder
-
required bytes family_name = 1;
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
required bytes family_name = 1;
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
required bytes family_name = 1;
- getFamilyName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFilesOrBuilder
-
required bytes family_name = 1;
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required bytes family_name = 3;
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
required bytes family_name = 3;
- getFamilyName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
required bytes family_name = 3;
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
required bytes family_name = 1;
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
required bytes family_name = 1;
- getFamilyName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptorOrBuilder
-
required bytes family_name = 1;
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
required bytes family_name = 1;
- getFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
required bytes family_name = 1;
- getFamilyName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
required bytes family_name = 1;
- getFamilyPath(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPath(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPath(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFamilyPathOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- getFavoredNode(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNode(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNode(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodesOrBuilder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodesOrBuilder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodesOrBuilder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodesOrBuilder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodeOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodesOrBuilder
-
repeated .hbase.pb.ServerName favored_node = 1;
- getFavoredNodes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfoOrBuilder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfoOrBuilder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfoOrBuilder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfoOrBuilder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfoOrBuilder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfoOrBuilder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfoOrBuilder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfoOrBuilder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfoOrBuilder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- getFavoredNodesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFavoredNodesOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfoOrBuilder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- getFileInfoOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 file_info_offset = 1;
- getFileInfoOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 file_info_offset = 1;
- getFileInfoOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 file_info_offset = 1;
- getFileName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string file_name = 3;
- getFileName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional string file_name = 3;
- getFileName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional string file_name = 3;
- getFileNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string file_name = 3;
- getFileNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional string file_name = 3;
- getFileNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional string file_name = 3;
- getFileSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
optional uint64 file_size = 3;
TODO: Add checksums or other fields to verify the file
- getFileSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
optional uint64 file_size = 3;
TODO: Add checksums or other fields to verify the file
- getFileSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFileOrBuilder
-
optional uint64 file_size = 3;
TODO: Add checksums or other fields to verify the file
- getFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.Filter filter = 4;
- getFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional .hbase.pb.Filter filter = 4;
- getFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional .hbase.pb.Filter filter = 4;
- getFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Filter filter = 5;
- getFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional .hbase.pb.Filter filter = 5;
- getFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional .hbase.pb.Filter filter = 5;
- getFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper.Builder
-
required .hbase.pb.Filter filter = 1;
- getFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper
-
required .hbase.pb.Filter filter = 1;
- getFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapperOrBuilder
-
required .hbase.pb.Filter filter = 1;
- getFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- getFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter
-
required .hbase.pb.Filter filter = 1;
- getFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilterOrBuilder
-
required .hbase.pb.Filter filter = 1;
- getFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- getFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter
-
required .hbase.pb.Filter filter = 1;
- getFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilterOrBuilder
-
required .hbase.pb.Filter filter = 1;
- getFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.Filter filter = 4;
- getFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Filter filter = 5;
- getFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper.Builder
-
required .hbase.pb.Filter filter = 1;
- getFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- getFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- getFilteredReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 filtered_read_requests_count = 19;
the current total filtered read requests made to region
- getFilteredReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 filtered_read_requests_count = 19;
the current total filtered read requests made to region
- getFilteredReadRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 filtered_read_requests_count = 19;
the current total filtered read requests made to region
- getFilterIfMissing() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bool filter_if_missing = 5;
- getFilterIfMissing() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
optional bool filter_if_missing = 5;
- getFilterIfMissing() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
optional bool filter_if_missing = 5;
- getFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.Filter filter = 4;
- getFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional .hbase.pb.Filter filter = 4;
- getFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional .hbase.pb.Filter filter = 4;
- getFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Filter filter = 5;
- getFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional .hbase.pb.Filter filter = 5;
- getFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional .hbase.pb.Filter filter = 5;
- getFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper.Builder
-
required .hbase.pb.Filter filter = 1;
- getFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper
-
required .hbase.pb.Filter filter = 1;
- getFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapperOrBuilder
-
required .hbase.pb.Filter filter = 1;
- getFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- getFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter
-
required .hbase.pb.Filter filter = 1;
- getFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilterOrBuilder
-
required .hbase.pb.Filter filter = 1;
- getFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- getFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter
-
required .hbase.pb.Filter filter = 1;
- getFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilterOrBuilder
-
required .hbase.pb.Filter filter = 1;
- getFilters(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
repeated .hbase.pb.Filter filters = 2;
- getFilters(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
repeated .hbase.pb.Filter filters = 2;
- getFilters(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterListOrBuilder
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterListOrBuilder
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterListOrBuilder
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterListOrBuilder
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
repeated .hbase.pb.Filter filters = 2;
- getFiltersOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterListOrBuilder
-
repeated .hbase.pb.Filter filters = 2;
- getFirst() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair.Builder
-
required bytes first = 1;
- getFirst() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
required bytes first = 1;
- getFirst() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPairOrBuilder
-
required bytes first = 1;
- getFirstDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 first_data_block_offset = 9;
- getFirstDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 first_data_block_offset = 9;
- getFirstDataBlockOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 first_data_block_offset = 9;
- getFlushed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
optional bool flushed = 2;
- getFlushed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
optional bool flushed = 2;
- getFlushed() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponseOrBuilder
-
optional bool flushed = 2;
- getFlushOutput(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutput(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutput(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptorOrBuilder
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutputBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutputBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutputBytes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptorOrBuilder
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutputCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutputCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutputCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptorOrBuilder
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutputList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutputList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushOutputList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptorOrBuilder
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- getFlushSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
optional uint64 flush_sequence_number = 4;
- getFlushSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
optional uint64 flush_sequence_number = 4;
- getFlushSequenceNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
optional uint64 flush_sequence_number = 4;
- getFollowingKvCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint32 following_kv_count = 7;
- getFollowingKvCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
optional uint32 following_kv_count = 7;
- getFollowingKvCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
optional uint32 following_kv_count = 7;
- getForcible() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
optional bool forcible = 3 [default = false];
- getForcible() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
optional bool forcible = 3 [default = false];
- getForcible() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequestOrBuilder
-
optional bool forcible = 3 [default = false];
- getFrom() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange.Builder
-
optional uint64 from = 1;
- getFrom() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
optional uint64 from = 1;
- getFrom() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRangeOrBuilder
-
optional uint64 from = 1;
- getFsToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional .hbase.pb.DelegationToken fs_token = 4;
- getFsToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
optional .hbase.pb.DelegationToken fs_token = 4;
- getFsToken() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
optional .hbase.pb.DelegationToken fs_token = 4;
- getFsTokenBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional .hbase.pb.DelegationToken fs_token = 4;
- getFsTokenOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional .hbase.pb.DelegationToken fs_token = 4;
- getFsTokenOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
optional .hbase.pb.DelegationToken fs_token = 4;
- getFsTokenOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
optional .hbase.pb.DelegationToken fs_token = 4;
- getFuzzyKeysData(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysData(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysData(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilterOrBuilder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilterOrBuilder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilterOrBuilder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilterOrBuilder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getFuzzyKeysDataOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilterOrBuilder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- getGenericException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- getGenericException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- getGenericException() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessageOrBuilder
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- getGenericExceptionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- getGenericExceptionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- getGenericExceptionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- getGenericExceptionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessageOrBuilder
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- getGet() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.Get get = 3;
- getGet() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional .hbase.pb.Get get = 3;
- getGet() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional .hbase.pb.Get get = 3;
- getGet() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.Get get = 2;
- getGet() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
required .hbase.pb.Get get = 2;
- getGet() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequestOrBuilder
-
required .hbase.pb.Get get = 2;
- getGetBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.Get get = 3;
- getGetBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.Get get = 2;
- getGetOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.Get get = 3;
- getGetOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional .hbase.pb.Get get = 3;
- getGetOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional .hbase.pb.Get get = 3;
- getGetOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.Get get = 2;
- getGetOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
required .hbase.pb.Get get = 2;
- getGetOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequestOrBuilder
-
required .hbase.pb.Get get = 2;
- getGlobalPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- getGlobalPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- getGlobalPermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- getGlobalPermissionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- getGlobalPermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- getGlobalPermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- getGlobalPermissionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- getHasCompression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional bool has_compression = 1;
- getHasCompression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional bool has_compression = 1;
- getHasCompression() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional bool has_compression = 1;
- getHash() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
optional bytes hash = 5;
- getHash() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
optional bytes hash = 5;
- getHash() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
optional bytes hash = 5;
- getHasTagCompression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional bool has_tag_compression = 3;
- getHasTagCompression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional bool has_tag_compression = 3;
- getHasTagCompression() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional bool has_tag_compression = 3;
- getHbaseVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- getHbaseVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- getHbaseVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- getHbaseVersionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- getHbaseVersionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- getHbaseVersionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- getHbaseVersionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- getHeapOccupancy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
optional int32 heapOccupancy = 2 [default = 0];
Percent JVM heap occupancy.
- getHeapOccupancy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
optional int32 heapOccupancy = 2 [default = 0];
Percent JVM heap occupancy.
- getHeapOccupancy() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStatsOrBuilder
-
optional int32 heapOccupancy = 2 [default = 0];
Percent JVM heap occupancy.
- getHeartbeatMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool heartbeat_message = 9;
This field is filled in if the server is sending back a heartbeat message.
- getHeartbeatMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional bool heartbeat_message = 9;
This field is filled in if the server is sending back a heartbeat message.
- getHeartbeatMessage() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional bool heartbeat_message = 9;
This field is filled in if the server is sending back a heartbeat message.
- getHfile() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string hfile = 3;
- getHfile() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
optional string hfile = 3;
- getHfile() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
optional string hfile = 3;
- getHfileBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string hfile = 3;
- getHfileBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
optional string hfile = 3;
- getHfileBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
optional string hfile = 3;
- getHostName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
required string host_name = 1;
- getHostName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
required string host_name = 1;
- getHostName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerNameOrBuilder
-
required string host_name = 1;
- getHostname() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string hostname = 3;
Optional hostname.
- getHostname() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional string hostname = 3;
Optional hostname.
- getHostname() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional string hostname = 3;
Optional hostname.
- getHostNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
required string host_name = 1;
- getHostNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
required string host_name = 1;
- getHostNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerNameOrBuilder
-
required string host_name = 1;
- getHostnameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string hostname = 3;
Optional hostname.
- getHostnameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional string hostname = 3;
Optional hostname.
- getHostnameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional string hostname = 3;
Optional hostname.
- getId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
required int32 id = 1;
- getId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
required int32 id = 1;
- getId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKeyOrBuilder
-
required int32 id = 1;
- getIdentifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
optional bytes identifier = 1;
the TokenIdentifier in serialized form
Note: we can't use the protobuf directly because the Hadoop Token class
only stores the serialized bytes
- getIdentifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
optional bytes identifier = 1;
the TokenIdentifier in serialized form
Note: we can't use the protobuf directly because the Hadoop Token class
only stores the serialized bytes
- getIdentifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenOrBuilder
-
optional bytes identifier = 1;
the TokenIdentifier in serialized form
Note: we can't use the protobuf directly because the Hadoop Token class
only stores the serialized bytes
- getIdentifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional bytes identifier = 1;
- getIdentifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
optional bytes identifier = 1;
- getIdentifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationTokenOrBuilder
-
optional bytes identifier = 1;
- getIfOlderThanTs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
optional uint64 if_older_than_ts = 2;
- getIfOlderThanTs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
optional uint64 if_older_than_ts = 2;
- getIfOlderThanTs() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequestOrBuilder
-
optional uint64 if_older_than_ts = 2;
- getIncludeStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool include_start_row = 21 [default = true];
- getIncludeStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool include_start_row = 21 [default = true];
- getIncludeStartRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool include_start_row = 21 [default = true];
- getIncludeStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool include_stop_row = 22 [default = false];
- getIncludeStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool include_stop_row = 22 [default = false];
- getIncludeStopRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool include_stop_row = 22 [default = false];
- getIndex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional uint32 index = 1;
If part of a multi action, useful aligning
result with what was originally submitted.
- getIndex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional uint32 index = 1;
If part of a multi action, useful aligning
result with what was originally submitted.
- getIndex() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional uint32 index = 1;
If part of a multi action, useful aligning
result with what was originally submitted.
- getIndex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional uint32 index = 1;
If part of a multi call, save original index of the list of all
passed so can align this response w/ original request.
- getIndex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional uint32 index = 1;
If part of a multi call, save original index of the list of all
passed so can align this response w/ original request.
- getIndex() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional uint32 index = 1;
If part of a multi call, save original index of the list of all
passed so can align this response w/ original request.
- getInfoPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
optional int32 infoPort = 1;
- getInfoPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
optional int32 infoPort = 1;
- getInfoPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfoOrBuilder
-
optional int32 infoPort = 1;
- getInfoPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
optional uint32 info_port = 3;
- getInfoPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
optional uint32 info_port = 3;
- getInfoPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MasterOrBuilder
-
optional uint32 info_port = 3;
- getInfoServerPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint32 info_server_port = 9;
The port number that this region server is hosing an info server on.
- getInfoServerPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint32 info_server_port = 9;
The port number that this region server is hosing an info server on.
- getInfoServerPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint32 info_server_port = 9;
The port number that this region server is hosing an info server on.
- getInstance() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
optional string instance = 2;
the procedure instance name
- getInstance() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
optional string instance = 2;
the procedure instance name
- getInstance() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
optional string instance = 2;
the procedure instance name
- getInstanceBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
optional string instance = 2;
the procedure instance name
- getInstanceBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
optional string instance = 2;
the procedure instance name
- getInstanceBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
optional string instance = 2;
the procedure instance name
- getInViolation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus.Builder
-
optional bool in_violation = 2;
- getInViolation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
optional bool in_violation = 2;
- getInViolation() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatusOrBuilder
-
optional bool in_violation = 2;
- getIssueDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
optional int64 issue_date = 4;
- getIssueDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
optional int64 issue_date = 4;
- getIssueDate() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
optional int64 issue_date = 4;
- getIv() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
optional bytes iv = 4;
- getIv() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
optional bytes iv = 4;
- getIv() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
optional bytes iv = 4;
- getKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
required .hbase.pb.WALKey key = 1;
- getKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
required .hbase.pb.WALKey key = 1;
- getKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntryOrBuilder
-
required .hbase.pb.WALKey key = 1;
- getKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
required bytes key = 3;
- getKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
required bytes key = 3;
- getKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKeyOrBuilder
-
required bytes key = 3;
- getKeyBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
required .hbase.pb.WALKey key = 1;
- getKeyId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
required int32 key_id = 3;
- getKeyId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
required int32 key_id = 3;
- getKeyId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
required int32 key_id = 3;
- getKeyOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
required .hbase.pb.WALKey key = 1;
- getKeyOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
required .hbase.pb.WALKey key = 1;
- getKeyOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntryOrBuilder
-
required .hbase.pb.WALKey key = 1;
- getKeyType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional .hbase.pb.CellType key_type = 5;
- getKeyType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
optional .hbase.pb.CellType key_type = 5;
- getKeyType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
optional .hbase.pb.CellType key_type = 5;
- getKeyValueBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
repeated bytes key_value_bytes = 2;
Following may be null if the KVs/Cells are carried along the side in a cellblock (See
RPC for more on cellblocks).
- getKeyValueBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
repeated bytes key_value_bytes = 2;
Following may be null if the KVs/Cells are carried along the side in a cellblock (See
RPC for more on cellblocks).
- getKeyValueBytes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntryOrBuilder
-
repeated bytes key_value_bytes = 2;
Following may be null if the KVs/Cells are carried along the side in a cellblock (See
RPC for more on cellblocks).
- getKeyValueBytesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
repeated bytes key_value_bytes = 2;
Following may be null if the KVs/Cells are carried along the side in a cellblock (See
RPC for more on cellblocks).
- getKeyValueBytesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
repeated bytes key_value_bytes = 2;
Following may be null if the KVs/Cells are carried along the side in a cellblock (See
RPC for more on cellblocks).
- getKeyValueBytesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntryOrBuilder
-
repeated bytes key_value_bytes = 2;
Following may be null if the KVs/Cells are carried along the side in a cellblock (See
RPC for more on cellblocks).
- getKeyValueBytesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
repeated bytes key_value_bytes = 2;
Following may be null if the KVs/Cells are carried along the side in a cellblock (See
RPC for more on cellblocks).
- getKeyValueBytesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
repeated bytes key_value_bytes = 2;
Following may be null if the KVs/Cells are carried along the side in a cellblock (See
RPC for more on cellblocks).
- getKeyValueBytesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntryOrBuilder
-
repeated bytes key_value_bytes = 2;
Following may be null if the KVs/Cells are carried along the side in a cellblock (See
RPC for more on cellblocks).
- getKind() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
required .hbase.pb.TokenIdentifier.Kind kind = 1;
- getKind() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
required .hbase.pb.TokenIdentifier.Kind kind = 1;
- getKind() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
required .hbase.pb.TokenIdentifier.Kind kind = 1;
- getKind() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional string kind = 3;
- getKind() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
optional string kind = 3;
- getKind() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationTokenOrBuilder
-
optional string kind = 3;
- getKindBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional string kind = 3;
- getKindBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
optional string kind = 3;
- getKindBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationTokenOrBuilder
-
optional string kind = 3;
- getLabel(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations.Builder
-
repeated string label = 1;
- getLabel(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
repeated string label = 1;
- getLabel(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.AuthorizationsOrBuilder
-
repeated string label = 1;
- getLabel(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse.Builder
-
repeated bytes label = 1;
- getLabel(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse
-
repeated bytes label = 1;
- getLabel(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponseOrBuilder
-
repeated bytes label = 1;
- getLabel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel.Builder
-
required bytes label = 1;
- getLabel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
required bytes label = 1;
- getLabel() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelOrBuilder
-
required bytes label = 1;
- getLabelBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations.Builder
-
repeated string label = 1;
- getLabelBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
repeated string label = 1;
- getLabelBytes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.AuthorizationsOrBuilder
-
repeated string label = 1;
- getLabelCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations.Builder
-
repeated string label = 1;
- getLabelCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
repeated string label = 1;
- getLabelCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.AuthorizationsOrBuilder
-
repeated string label = 1;
- getLabelCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse.Builder
-
repeated bytes label = 1;
- getLabelCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse
-
repeated bytes label = 1;
- getLabelCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponseOrBuilder
-
repeated bytes label = 1;
- getLabelList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations.Builder
-
repeated string label = 1;
- getLabelList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
repeated string label = 1;
- getLabelList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.AuthorizationsOrBuilder
-
repeated string label = 1;
- getLabelList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse.Builder
-
repeated bytes label = 1;
- getLabelList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse
-
repeated bytes label = 1;
- getLabelList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponseOrBuilder
-
repeated bytes label = 1;
- getLastDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 last_data_block_offset = 10;
- getLastDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 last_data_block_offset = 10;
- getLastDataBlockOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 last_data_block_offset = 10;
- getLastFlushedSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
required uint64 last_flushed_sequence_id = 1;
- getLastFlushedSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
required uint64 last_flushed_sequence_id = 1;
- getLastFlushedSequenceId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIdsOrBuilder
-
required uint64 last_flushed_sequence_id = 1;
- getLastFlushTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
required uint64 last_flush_time = 1;
- getLastFlushTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
required uint64 last_flush_time = 1;
- getLastFlushTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponseOrBuilder
-
required uint64 last_flush_time = 1;
- getLastMajorCompactionTs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 last_major_compaction_ts = 17 [default = 0];
- getLastMajorCompactionTs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 last_major_compaction_ts = 17 [default = 0];
- getLastMajorCompactionTs() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 last_major_compaction_ts = 17 [default = 0];
- getLatestVersionOnly() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bool latest_version_only = 6;
- getLatestVersionOnly() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
optional bool latest_version_only = 6;
- getLatestVersionOnly() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
optional bool latest_version_only = 6;
- getLeastSigBits() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID.Builder
-
required uint64 least_sig_bits = 1;
- getLeastSigBits() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
required uint64 least_sig_bits = 1;
- getLeastSigBits() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUIDOrBuilder
-
required uint64 least_sig_bits = 1;
- getLenAsVal() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter.Builder
-
required bool len_as_val = 1;
- getLenAsVal() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter
-
required bool len_as_val = 1;
- getLenAsVal() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilterOrBuilder
-
required bool len_as_val = 1;
- getLength() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required uint32 length = 2;
- getLength() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
required uint32 length = 2;
- getLength() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
required uint32 length = 2;
- getLength() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta.Builder
-
optional uint32 length = 1;
Length of the following cell block.
- getLength() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta
-
optional uint32 length = 1;
Length of the following cell block.
- getLength() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMetaOrBuilder
-
optional uint32 length = 1;
Length of the following cell block.
- getLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter.Builder
-
required int32 limit = 1;
- getLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter
-
required int32 limit = 1;
- getLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilterOrBuilder
-
required int32 limit = 1;
- getLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
required int32 limit = 1;
- getLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
required int32 limit = 1;
- getLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilterOrBuilder
-
required int32 limit = 1;
- getLimitOfRows() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint32 limit_of_rows = 11 [default = 0];
if we have returned limit_of_rows rows to client, then close the scanner.
- getLimitOfRows() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional uint32 limit_of_rows = 11 [default = 0];
if we have returned limit_of_rows rows to client, then close the scanner.
- getLimitOfRows() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional uint32 limit_of_rows = 11 [default = 0];
if we have returned limit_of_rows rows to client, then close the scanner.
- getLineNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional int32 line_number = 4;
- getLineNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional int32 line_number = 4;
- getLineNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional int32 line_number = 4;
- getLiveServers(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServers(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServers(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLiveServersOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- getLoadColumnFamiliesOnDemand() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool load_column_families_on_demand = 14;
DO NOT add defaults to load_column_families_on_demand.
- getLoadColumnFamiliesOnDemand() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional bool load_column_families_on_demand = 14;
DO NOT add defaults to load_column_families_on_demand.
- getLoadColumnFamiliesOnDemand() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional bool load_column_families_on_demand = 14;
DO NOT add defaults to load_column_families_on_demand.
- getLoadColumnFamiliesOnDemand() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool load_column_families_on_demand = 13;
DO NOT add defaults to load_column_families_on_demand.
- getLoadColumnFamiliesOnDemand() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool load_column_families_on_demand = 13;
DO NOT add defaults to load_column_families_on_demand.
- getLoadColumnFamiliesOnDemand() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool load_column_families_on_demand = 13;
DO NOT add defaults to load_column_families_on_demand.
- getLoaded() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse.Builder
-
required bool loaded = 1;
- getLoaded() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse
-
required bool loaded = 1;
- getLoaded() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponseOrBuilder
-
required bool loaded = 1;
- getLoadOnOpenDataOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 load_on_open_data_offset = 2;
- getLoadOnOpenDataOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 load_on_open_data_offset = 2;
- getLoadOnOpenDataOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 load_on_open_data_offset = 2;
- getLoadStats() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
已过时。
- getLoadStats() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
已过时。
- getLoadStats() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
已过时。
- getLoadStatsBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
已过时。
- getLoadStatsOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
已过时。
- getLoadStatsOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
已过时。
- getLoadStatsOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
已过时。
- getLocations(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
repeated string locations = 2;
- getLocations(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
repeated string locations = 2;
- getLocations(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplitOrBuilder
-
repeated string locations = 2;
- getLocationsBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
repeated string locations = 2;
- getLocationsBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
repeated string locations = 2;
- getLocationsBytes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplitOrBuilder
-
repeated string locations = 2;
- getLocationsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
repeated string locations = 2;
- getLocationsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
repeated string locations = 2;
- getLocationsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplitOrBuilder
-
repeated string locations = 2;
- getLocationsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
repeated string locations = 2;
- getLocationsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
repeated string locations = 2;
- getLocationsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplitOrBuilder
-
repeated string locations = 2;
- getLogSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional uint64 log_sequence_number = 4;
- getLogSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
optional uint64 log_sequence_number = 4;
- getLogSequenceNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
optional uint64 log_sequence_number = 4;
- getLogSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required uint64 log_sequence_number = 3;
- getLogSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
required uint64 log_sequence_number = 3;
- getLogSequenceNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
required uint64 log_sequence_number = 3;
- getLongMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg.Builder
-
required int64 long_msg = 1;
- getLongMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg
-
required int64 long_msg = 1;
- getLongMsg() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsgOrBuilder
-
required int64 long_msg = 1;
- getMajor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
optional bool major = 2;
- getMajor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
optional bool major = 2;
- getMajor() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequestOrBuilder
-
optional bool major = 2;
- getMapEntry(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntry(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntry(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProtoOrBuilder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProtoOrBuilder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProtoOrBuilder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProtoOrBuilder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMapEntryOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProtoOrBuilder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- getMaster() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ServerName master = 7;
- getMaster() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional .hbase.pb.ServerName master = 7;
- getMaster() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional .hbase.pb.ServerName master = 7;
- getMaster() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- getMaster() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- getMaster() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MasterOrBuilder
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- getMasterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ServerName master = 7;
- getMasterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- getMasterCoprocessors(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessors(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessors(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterCoprocessorsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- getMasterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ServerName master = 7;
- getMasterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional .hbase.pb.ServerName master = 7;
- getMasterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional .hbase.pb.ServerName master = 7;
- getMasterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- getMasterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- getMasterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MasterOrBuilder
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- getMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
optional uint64 master_system_time = 4;
wall clock time from master
- getMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
optional uint64 master_system_time = 4;
wall clock time from master
- getMasterSystemTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequestOrBuilder
-
optional uint64 master_system_time = 4;
wall clock time from master
- getMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
optional uint64 master_system_time = 5;
wall clock time from master
- getMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
optional uint64 master_system_time = 5;
wall clock time from master
- getMasterSystemTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequestOrBuilder
-
optional uint64 master_system_time = 5;
wall clock time from master
- getMaxColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bytes max_column = 3;
- getMaxColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
optional bytes max_column = 3;
- getMaxColumn() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilterOrBuilder
-
optional bytes max_column = 3;
- getMaxColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bool max_column_inclusive = 4;
- getMaxColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
optional bool max_column_inclusive = 4;
- getMaxColumnInclusive() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilterOrBuilder
-
optional bool max_column_inclusive = 4;
- getMaxHeapMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint32 max_heap_MB = 4;
the maximum allowable size of the heap, in MB.
- getMaxHeapMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint32 max_heap_MB = 4;
the maximum allowable size of the heap, in MB.
- getMaxHeapMB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint32 max_heap_MB = 4;
the maximum allowable size of the heap, in MB.
- getMaxResultSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint64 max_result_size = 10;
- getMaxResultSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint64 max_result_size = 10;
- getMaxResultSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint64 max_result_size = 10;
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional uint32 max_versions = 6 [default = 1];
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional uint32 max_versions = 6 [default = 1];
- getMaxVersions() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional uint32 max_versions = 6 [default = 1];
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 max_versions = 7 [default = 1];
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint32 max_versions = 7 [default = 1];
- getMaxVersions() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint32 max_versions = 7 [default = 1];
- getMemStoreLoad() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
optional int32 memStoreLoad = 1 [default = 0];
Percent load on the memstore.
- getMemStoreLoad() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
optional int32 memStoreLoad = 1 [default = 0];
Percent load on the memstore.
- getMemStoreLoad() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStatsOrBuilder
-
optional int32 memStoreLoad = 1 [default = 0];
Percent load on the memstore.
- getMemstoreSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 memstore_size_MB = 6;
the current size of the memstore for the region, in MB
- getMemstoreSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 memstore_size_MB = 6;
the current size of the memstore for the region, in MB
- getMemstoreSizeMB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 memstore_size_MB = 6;
the current size of the memstore for the region, in MB
- getMergeExistingPermissions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
optional bool merge_existing_permissions = 2 [default = false];
- getMergeExistingPermissions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
optional bool merge_existing_permissions = 2 [default = false];
- getMergeExistingPermissions() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequestOrBuilder
-
optional bool merge_existing_permissions = 2 [default = false];
- getMessage() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto.Builder
-
required string message = 1;
- getMessage() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto
-
required string message = 1;
- getMessage() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProtoOrBuilder
-
required string message = 1;
- getMessage() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto.Builder
-
required string message = 1;
- getMessage() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto
-
required string message = 1;
- getMessage() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProtoOrBuilder
-
required string message = 1;
- getMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional string message = 2;
- getMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
optional string message = 2;
- getMessage() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
optional string message = 2;
- getMessageBytes() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto.Builder
-
required string message = 1;
- getMessageBytes() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto
-
required string message = 1;
- getMessageBytes() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProtoOrBuilder
-
required string message = 1;
- getMessageBytes() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto.Builder
-
required string message = 1;
- getMessageBytes() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto
-
required string message = 1;
- getMessageBytes() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProtoOrBuilder
-
required string message = 1;
- getMessageBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional string message = 2;
- getMessageBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
optional string message = 2;
- getMessageBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
optional string message = 2;
- getMetaIndexCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 meta_index_count = 6;
- getMetaIndexCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint32 meta_index_count = 6;
- getMetaIndexCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint32 meta_index_count = 6;
- getMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required string method_name = 3;
- getMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
required string method_name = 3;
- getMethodName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCallOrBuilder
-
required string method_name = 3;
- getMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string method_name = 2;
- getMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional string method_name = 2;
- getMethodName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional string method_name = 2;
- getMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional string method_name = 3;
- getMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional string method_name = 3;
- getMethodName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional string method_name = 3;
- getMethodNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required string method_name = 3;
- getMethodNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
required string method_name = 3;
- getMethodNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCallOrBuilder
-
required string method_name = 3;
- getMethodNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string method_name = 2;
- getMethodNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional string method_name = 2;
- getMethodNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional string method_name = 2;
- getMethodNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional string method_name = 3;
- getMethodNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional string method_name = 3;
- getMethodNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional string method_name = 3;
- getMetrics(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetrics(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetrics(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetricsOrBuilder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetricsOrBuilder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetricsOrBuilder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetricsOrBuilder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMetricsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetricsOrBuilder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- getMinColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bytes min_column = 1;
- getMinColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
optional bytes min_column = 1;
- getMinColumn() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilterOrBuilder
-
optional bytes min_column = 1;
- getMinColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bool min_column_inclusive = 2;
- getMinColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
optional bool min_column_inclusive = 2;
- getMinColumnInclusive() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilterOrBuilder
-
optional bool min_column_inclusive = 2;
- getMoreResults() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool more_results = 3;
- getMoreResults() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional bool more_results = 3;
- getMoreResults() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional bool more_results = 3;
- getMoreResultsInRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool more_results_in_region = 8;
A server may choose to limit the number of results returned to the client for
reasons such as the size in bytes or quantity of results accumulated.
- getMoreResultsInRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional bool more_results_in_region = 8;
A server may choose to limit the number of results returned to the client for
reasons such as the size in bytes or quantity of results accumulated.
- getMoreResultsInRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional bool more_results_in_region = 8;
A server may choose to limit the number of results returned to the client for
reasons such as the size in bytes or quantity of results accumulated.
- getMostSigBits() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID.Builder
-
required uint64 most_sig_bits = 2;
- getMostSigBits() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
required uint64 most_sig_bits = 2;
- getMostSigBits() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUIDOrBuilder
-
required uint64 most_sig_bits = 2;
- getMs() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto.Builder
-
required uint32 ms = 1;
- getMs() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto
-
required uint32 ms = 1;
- getMs() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProtoOrBuilder
-
required uint32 ms = 1;
- getMutateType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.MutationProto.MutationType mutate_type = 2;
- getMutateType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional .hbase.pb.MutationProto.MutationType mutate_type = 2;
- getMutateType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional .hbase.pb.MutationProto.MutationType mutate_type = 2;
- getMutation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.MutationProto mutation = 2;
- getMutation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional .hbase.pb.MutationProto mutation = 2;
- getMutation() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional .hbase.pb.MutationProto mutation = 2;
- getMutation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.MutationProto mutation = 2;
- getMutation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
required .hbase.pb.MutationProto mutation = 2;
- getMutation() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
required .hbase.pb.MutationProto mutation = 2;
- getMutationBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.MutationProto mutation = 2;
- getMutationBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.MutationProto mutation = 2;
- getMutationOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.MutationProto mutation = 2;
- getMutationOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional .hbase.pb.MutationProto mutation = 2;
- getMutationOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional .hbase.pb.MutationProto mutation = 2;
- getMutationOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.MutationProto mutation = 2;
- getMutationOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
required .hbase.pb.MutationProto mutation = 2;
- getMutationOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
required .hbase.pb.MutationProto mutation = 2;
- getMutationRequest(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequest(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequest(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMutationRequestOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- getMvccReadPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint64 mvcc_read_point = 20 [default = 0];
- getMvccReadPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint64 mvcc_read_point = 20 [default = 0];
- getMvccReadPoint() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint64 mvcc_read_point = 20 [default = 0];
- getMvccReadPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional uint64 mvcc_read_point = 11 [default = 0];
The mvcc read point which is used to open the scanner at server side.
- getMvccReadPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional uint64 mvcc_read_point = 11 [default = 0];
The mvcc read point which is used to open the scanner at server side.
- getMvccReadPoint() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional uint64 mvcc_read_point = 11 [default = 0];
The mvcc read point which is used to open the scanner at server side.
- getName() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest.Builder
-
optional string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest
-
optional string name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequestOrBuilder
-
optional string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
required string name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ComparatorOrBuilder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
required string name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterOrBuilder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
required bytes name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
required bytes name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
required bytes name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor.Builder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor
-
required string name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.CoprocessorOrBuilder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
required string name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPairOrBuilder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
optional string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
optional string name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64PairOrBuilder
-
optional string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
required bytes name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
required bytes name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptorOrBuilder
-
required bytes name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
required string name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPairOrBuilder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
required string name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
required string name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
required string name = 1;
- getName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
required string name = 1;
- getName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFileOrBuilder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest.Builder
-
optional string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest
-
optional string name = 1;
- getNameBytes() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequestOrBuilder
-
optional string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
required string name = 1;
- getNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ComparatorOrBuilder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
required string name = 1;
- getNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterOrBuilder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor.Builder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor
-
required string name = 1;
- getNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.CoprocessorOrBuilder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
required string name = 1;
- getNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPairOrBuilder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
optional string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
optional string name = 1;
- getNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64PairOrBuilder
-
optional string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
required string name = 1;
- getNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPairOrBuilder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
required string name = 1;
- getNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
required string name = 1;
- getNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
required string name = 1;
- getNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
required string name = 1;
- getNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFileOrBuilder
-
required string name = 1;
- getNamespace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName.Builder
-
required bytes namespace = 1;
- getNamespace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
required bytes namespace = 1;
- getNamespace() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableNameOrBuilder
-
required bytes namespace = 1;
- getNamespaceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional bytes namespace_name = 3;
- getNamespaceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
optional bytes namespace_name = 3;
- getNamespaceName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequestOrBuilder
-
optional bytes namespace_name = 3;
- getNamespaceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission.Builder
-
optional bytes namespace_name = 1;
- getNamespaceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
optional bytes namespace_name = 1;
- getNamespaceName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermissionOrBuilder
-
optional bytes namespace_name = 1;
- getNamespacePermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- getNamespacePermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- getNamespacePermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- getNamespacePermissionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- getNamespacePermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- getNamespacePermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- getNamespacePermissionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- getNamespaces(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated bytes namespaces = 6;
- getNamespaces(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated bytes namespaces = 6;
- getNamespaces(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated bytes namespaces = 6;
- getNamespacesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated bytes namespaces = 6;
- getNamespacesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated bytes namespaces = 6;
- getNamespacesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated bytes namespaces = 6;
- getNamespacesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated bytes namespaces = 6;
- getNamespacesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated bytes namespaces = 6;
- getNamespacesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated bytes namespaces = 6;
- getNeedCursorResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool need_cursor_result = 24 [default = false];
- getNeedCursorResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool need_cursor_result = 24 [default = false];
- getNeedCursorResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool need_cursor_result = 24 [default = false];
- getNextCallSeq() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint64 next_call_seq = 6;
- getNextCallSeq() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional uint64 next_call_seq = 6;
- getNextCallSeq() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional uint64 next_call_seq = 6;
- getNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional uint64 nonce = 9;
- getNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional uint64 nonce = 9;
- getNonce() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional uint64 nonce = 9;
- getNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional uint64 nonce = 3;
- getNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
optional uint64 nonce = 3;
- getNonce() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
optional uint64 nonce = 3;
- getNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional uint64 nonce = 5;
- getNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
optional uint64 nonce = 5;
- getNonce() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
optional uint64 nonce = 5;
- getNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint64 nonce = 10;
- getNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
optional uint64 nonce = 10;
- getNonce() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
optional uint64 nonce = 10;
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
optional uint64 nonceGroup = 2;
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
optional uint64 nonceGroup = 2;
- getNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequestOrBuilder
-
optional uint64 nonceGroup = 2;
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
optional uint64 nonce_group = 4;
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
optional uint64 nonce_group = 4;
- getNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
optional uint64 nonce_group = 4;
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional uint64 nonce_group = 2;
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
optional uint64 nonce_group = 2;
- getNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
optional uint64 nonce_group = 2;
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional uint64 nonce_group = 4;
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
optional uint64 nonce_group = 4;
- getNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
optional uint64 nonce_group = 4;
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint64 nonceGroup = 9;
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
optional uint64 nonceGroup = 9;
- getNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
optional uint64 nonceGroup = 9;
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Action
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Type
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.CompactionState
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.RegionOpeningState
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Kind
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellType
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Consistency
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.DeleteType
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Durability
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.MutationType
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.ReadType
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.Option
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.State
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.BitwiseOp
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Operator
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Range
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.CompareType
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.RegionSpecifierType
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Type
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState.State
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeUnit
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaScope
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaType
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceViolationPolicy
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleType
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Type
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.FlushAction
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.EventType
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.ScopeType
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState.State
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState.State
-
- getNumber() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.State
-
- getNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 number_of_requests = 1;
Number of requests since last report.
- getNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint64 number_of_requests = 1;
Number of requests since last report.
- getNumberOfRequests() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint64 number_of_requests = 1;
Number of requests since last report.
- getNumberOfRows() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint32 number_of_rows = 4;
- getNumberOfRows() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional uint32 number_of_rows = 4;
- getNumberOfRows() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional uint32 number_of_rows = 4;
- getNumDataIndexLevels() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 num_data_index_levels = 8;
- getNumDataIndexLevels() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint32 num_data_index_levels = 8;
- getNumDataIndexLevels() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint32 num_data_index_levels = 8;
- getOffline() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bool offline = 5;
- getOffline() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
optional bool offline = 5;
- getOffline() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
optional bool offline = 5;
- getOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
optional int32 offset = 2;
- getOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
optional int32 offset = 2;
- getOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilterOrBuilder
-
optional int32 offset = 2;
- getOnlineRegion(RpcController, AdminProtos.GetOnlineRegionRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.BlockingInterface
-
- getOnlineRegion(RpcController, AdminProtos.GetOnlineRegionRequest, RpcCallback<AdminProtos.GetOnlineRegionResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService
-
rpc GetOnlineRegion(.hbase.pb.GetOnlineRegionRequest) returns (.hbase.pb.GetOnlineRegionResponse);
- getOnlineRegion(RpcController, AdminProtos.GetOnlineRegionRequest, RpcCallback<AdminProtos.GetOnlineRegionResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Interface
-
rpc GetOnlineRegion(.hbase.pb.GetOnlineRegionRequest) returns (.hbase.pb.GetOnlineRegionResponse);
- getOnlineRegion(RpcController, AdminProtos.GetOnlineRegionRequest, RpcCallback<AdminProtos.GetOnlineRegionResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Stub
-
- getOpenInfo(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfo(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfo(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequestOrBuilder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequestOrBuilder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequestOrBuilder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequestOrBuilder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpenInfoOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequestOrBuilder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- getOpeningState(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.Builder
-
repeated .hbase.pb.OpenRegionResponse.RegionOpeningState opening_state = 1;
- getOpeningState(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse
-
repeated .hbase.pb.OpenRegionResponse.RegionOpeningState opening_state = 1;
- getOpeningState(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponseOrBuilder
-
repeated .hbase.pb.OpenRegionResponse.RegionOpeningState opening_state = 1;
- getOpeningStateCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.Builder
-
repeated .hbase.pb.OpenRegionResponse.RegionOpeningState opening_state = 1;
- getOpeningStateCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse
-
repeated .hbase.pb.OpenRegionResponse.RegionOpeningState opening_state = 1;
- getOpeningStateCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponseOrBuilder
-
repeated .hbase.pb.OpenRegionResponse.RegionOpeningState opening_state = 1;
- getOpeningStateList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.Builder
-
repeated .hbase.pb.OpenRegionResponse.RegionOpeningState opening_state = 1;
- getOpeningStateList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse
-
repeated .hbase.pb.OpenRegionResponse.RegionOpeningState opening_state = 1;
- getOpeningStateList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponseOrBuilder
-
repeated .hbase.pb.OpenRegionResponse.RegionOpeningState opening_state = 1;
- getOperator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
required .hbase.pb.FilterList.Operator operator = 1;
- getOperator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
required .hbase.pb.FilterList.Operator operator = 1;
- getOperator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterListOrBuilder
-
required .hbase.pb.FilterList.Operator operator = 1;
- getOrdinal() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel.Builder
-
optional uint32 ordinal = 2;
- getOrdinal() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
optional uint32 ordinal = 2;
- getOrdinal() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelOrBuilder
-
optional uint32 ordinal = 2;
- getOrigSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint64 orig_sequence_number = 11;
- getOrigSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
optional uint64 orig_sequence_number = 11;
- getOrigSequenceNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
optional uint64 orig_sequence_number = 11;
- getOwner() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional string owner = 6;
- getOwner() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional string owner = 6;
- getOwner() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional string owner = 6;
- getOwnerBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional string owner = 6;
- getOwnerBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional string owner = 6;
- getOwnerBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional string owner = 6;
- getPageSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter.Builder
-
required int64 page_size = 1;
- getPageSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter
-
required int64 page_size = 1;
- getPageSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilterOrBuilder
-
required int64 page_size = 1;
- getParentId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo.Builder
-
optional int64 parent_id = 2;
- getParentId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
optional int64 parent_id = 2;
- getParentId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfoOrBuilder
-
optional int64 parent_id = 2;
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyRequestProto
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyResponseProto
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.NullComparator
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterAllFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyOnlyFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.EmptyMsg
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaUsage
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALTrailer
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState
-
- getParserForType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
- getPartial() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional bool partial = 5 [default = false];
Whether or not the entire result could be returned.
- getPartial() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
optional bool partial = 5 [default = false];
Whether or not the entire result could be returned.
- getPartial() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
optional bool partial = 5 [default = false];
Whether or not the entire result could be returned.
- getPartialFlagPerResult(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated bool partial_flag_per_result = 7;
This field is filled in if we are doing cellblocks.
- getPartialFlagPerResult(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated bool partial_flag_per_result = 7;
This field is filled in if we are doing cellblocks.
- getPartialFlagPerResult(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated bool partial_flag_per_result = 7;
This field is filled in if we are doing cellblocks.
- getPartialFlagPerResultCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated bool partial_flag_per_result = 7;
This field is filled in if we are doing cellblocks.
- getPartialFlagPerResultCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated bool partial_flag_per_result = 7;
This field is filled in if we are doing cellblocks.
- getPartialFlagPerResultCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated bool partial_flag_per_result = 7;
This field is filled in if we are doing cellblocks.
- getPartialFlagPerResultList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated bool partial_flag_per_result = 7;
This field is filled in if we are doing cellblocks.
- getPartialFlagPerResultList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated bool partial_flag_per_result = 7;
This field is filled in if we are doing cellblocks.
- getPartialFlagPerResultList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated bool partial_flag_per_result = 7;
This field is filled in if we are doing cellblocks.
- getPassword() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
optional bytes password = 2;
- getPassword() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
optional bytes password = 2;
- getPassword() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenOrBuilder
-
optional bytes password = 2;
- getPassword() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional bytes password = 2;
- getPassword() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
optional bytes password = 2;
- getPassword() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationTokenOrBuilder
-
optional bytes password = 2;
- getPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
required string path = 2;
- getPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
required string path = 2;
- getPath() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPathOrBuilder
-
required string path = 2;
- getPathBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
required string path = 2;
- getPathBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
required string path = 2;
- getPathBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPathOrBuilder
-
required string path = 2;
- getPattern() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required string pattern = 1;
- getPattern() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
required string pattern = 1;
- getPattern() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
required string pattern = 1;
- getPatternBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required string pattern = 1;
- getPatternBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
required string pattern = 1;
- getPatternBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
required string pattern = 1;
- getPatternFlags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required int32 pattern_flags = 2;
- getPatternFlags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
required int32 pattern_flags = 2;
- getPatternFlags() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
required int32 pattern_flags = 2;
- getPeerID() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required string peerID = 1;
- getPeerID() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required string peerID = 1;
- getPeerID() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required string peerID = 1;
- getPeerIDBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required string peerID = 1;
- getPeerIDBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required string peerID = 1;
- getPeerIDBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required string peerID = 1;
- getPermission(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
repeated .hbase.pb.Permission permission = 1;
- getPermission(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
repeated .hbase.pb.Permission permission = 1;
- getPermission(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequestOrBuilder
-
repeated .hbase.pb.Permission permission = 1;
- getPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
required .hbase.pb.Permission permission = 3;
- getPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
required .hbase.pb.Permission permission = 3;
- getPermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermissionOrBuilder
-
required .hbase.pb.Permission permission = 3;
- getPermissionBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
required .hbase.pb.Permission permission = 3;
- getPermissionBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequestOrBuilder
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequestOrBuilder
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequestOrBuilder
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
required .hbase.pb.Permission permission = 3;
- getPermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
required .hbase.pb.Permission permission = 3;
- getPermissionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermissionOrBuilder
-
required .hbase.pb.Permission permission = 3;
- getPermissionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
repeated .hbase.pb.Permission permission = 1;
- getPermissionOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequestOrBuilder
-
repeated .hbase.pb.Permission permission = 1;
- getPermissions(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissions(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissions(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissionsOrBuilder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissionsOrBuilder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissionsOrBuilder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissionsOrBuilder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
repeated .hbase.pb.Permission permissions = 2;
- getPermissionsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissionsOrBuilder
-
repeated .hbase.pb.Permission permissions = 2;
- getPong() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse.Builder
-
required string pong = 1;
- getPong() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse
-
required string pong = 1;
- getPong() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponseOrBuilder
-
required string pong = 1;
- getPongBytes() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse.Builder
-
required string pong = 1;
- getPongBytes() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse
-
required string pong = 1;
- getPongBytes() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponseOrBuilder
-
required string pong = 1;
- getPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
optional uint32 port = 2;
- getPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
optional uint32 port = 2;
- getPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerNameOrBuilder
-
optional uint32 port = 2;
- getPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional int32 port = 4;
- getPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional int32 port = 4;
- getPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional int32 port = 4;
- getPosition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition.Builder
-
required int64 position = 1;
- getPosition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition
-
required int64 position = 1;
- getPosition() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPositionOrBuilder
-
required int64 position = 1;
- getPrefix() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter.Builder
-
required bytes prefix = 1;
- getPrefix() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter
-
required bytes prefix = 1;
- getPrefix() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilterOrBuilder
-
required bytes prefix = 1;
- getPrefix() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter.Builder
-
optional bytes prefix = 1;
- getPrefix() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter
-
optional bytes prefix = 1;
- getPrefix() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilterOrBuilder
-
optional bytes prefix = 1;
- getPriority() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional uint32 priority = 6;
0 is NORMAL priority. 200 is HIGH.
- getPriority() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional uint32 priority = 6;
0 is NORMAL priority. 200 is HIGH.
- getPriority() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional uint32 priority = 6;
0 is NORMAL priority. 200 is HIGH.
- getProcessed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
optional bool processed = 2;
used for mutate to indicate processed only
- getProcessed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
optional bool processed = 2;
used for mutate to indicate processed only
- getProcessed() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponseOrBuilder
-
optional bool processed = 2;
used for mutate to indicate processed only
- getProcessed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
optional bool processed = 2;
used for mutate to indicate processed only
- getProcessed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
optional bool processed = 2;
used for mutate to indicate processed only
- getProcessed() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponseOrBuilder
-
optional bool processed = 2;
used for mutate to indicate processed only
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional bytes qualifier = 3;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
optional bytes qualifier = 3;
- getQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermissionOrBuilder
-
optional bytes qualifier = 3;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes qualifier = 3;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional bytes qualifier = 3;
- getQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional bytes qualifier = 3;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
required bytes qualifier = 3;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
required bytes qualifier = 3;
- getQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
required bytes qualifier = 3;
- getQualifier(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column.Builder
-
repeated bytes qualifier = 2;
- getQualifier(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
repeated bytes qualifier = 2;
- getQualifier(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ColumnOrBuilder
-
repeated bytes qualifier = 2;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required bytes qualifier = 3;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required bytes qualifier = 3;
- getQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required bytes qualifier = 3;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional bytes qualifier = 1;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
optional bytes qualifier = 1;
- getQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValueOrBuilder
-
optional bytes qualifier = 1;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required bytes qualifier = 2;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
required bytes qualifier = 2;
- getQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilterOrBuilder
-
required bytes qualifier = 2;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName.Builder
-
required bytes qualifier = 2;
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
required bytes qualifier = 2;
- getQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableNameOrBuilder
-
required bytes qualifier = 2;
- getQualifierCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column.Builder
-
repeated bytes qualifier = 2;
- getQualifierCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
repeated bytes qualifier = 2;
- getQualifierCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ColumnOrBuilder
-
repeated bytes qualifier = 2;
- getQualifierList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column.Builder
-
repeated bytes qualifier = 2;
- getQualifierList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
repeated bytes qualifier = 2;
- getQualifierList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ColumnOrBuilder
-
repeated bytes qualifier = 2;
- getQualifiers(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter.Builder
-
repeated bytes qualifiers = 1;
- getQualifiers(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter
-
repeated bytes qualifiers = 1;
- getQualifiers(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilterOrBuilder
-
repeated bytes qualifiers = 1;
- getQualifiersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter.Builder
-
repeated bytes qualifiers = 1;
- getQualifiersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter
-
repeated bytes qualifiers = 1;
- getQualifiersCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilterOrBuilder
-
repeated bytes qualifiers = 1;
- getQualifiersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter.Builder
-
repeated bytes qualifiers = 1;
- getQualifiersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter
-
repeated bytes qualifiers = 1;
- getQualifiersList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilterOrBuilder
-
repeated bytes qualifiers = 1;
- getQualifierValue(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValue(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValue(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValueOrBuilder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValueOrBuilder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValueOrBuilder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValueOrBuilder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQualifierValueOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValueOrBuilder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- getQuota() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest.Builder
-
optional .hbase.pb.SpaceQuota quota = 1;
- getQuota() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest
-
optional .hbase.pb.SpaceQuota quota = 1;
- getQuota() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequestOrBuilder
-
optional .hbase.pb.SpaceQuota quota = 1;
- getQuotaBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest.Builder
-
optional .hbase.pb.SpaceQuota quota = 1;
- getQuotaLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional uint64 quota_limit = 3;
- getQuotaLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
optional uint64 quota_limit = 3;
- getQuotaLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshotOrBuilder
-
optional uint64 quota_limit = 3;
- getQuotaOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest.Builder
-
optional .hbase.pb.SpaceQuota quota = 1;
- getQuotaOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest
-
optional .hbase.pb.SpaceQuota quota = 1;
- getQuotaOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequestOrBuilder
-
optional .hbase.pb.SpaceQuota quota = 1;
- getQuotaStatus() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- getQuotaStatus() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- getQuotaStatus() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshotOrBuilder
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- getQuotaStatusBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- getQuotaStatusOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- getQuotaStatusOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- getQuotaStatusOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshotOrBuilder
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- getQuotaUsage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional uint64 quota_usage = 2;
- getQuotaUsage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
optional uint64 quota_usage = 2;
- getQuotaUsage() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshotOrBuilder
-
optional uint64 quota_usage = 2;
- getRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Builder
-
required .hbase.pb.Reference.Range range = 2;
- getRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
required .hbase.pb.Reference.Range range = 2;
- getRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.ReferenceOrBuilder
-
required .hbase.pb.Reference.Range range = 2;
- getReadNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_num = 5;
- getReadNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota read_num = 5;
- getReadNum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota read_num = 5;
- getReadNumBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_num = 5;
- getReadNumOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_num = 5;
- getReadNumOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota read_num = 5;
- getReadNumOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota read_num = 5;
- getReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 read_requests_count = 8;
the current total read requests made to region
- getReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 read_requests_count = 8;
the current total read requests made to region
- getReadRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 read_requests_count = 8;
the current total read requests made to region
- getReadSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_size = 6;
- getReadSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota read_size = 6;
- getReadSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota read_size = 6;
- getReadSizeBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_size = 6;
- getReadSizeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_size = 6;
- getReadSizeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota read_size = 6;
- getReadSizeOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota read_size = 6;
- getReadType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Scan.ReadType readType = 23 [default = DEFAULT];
- getReadType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional .hbase.pb.Scan.ReadType readType = 23 [default = DEFAULT];
- getReadType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional .hbase.pb.Scan.ReadType readType = 23 [default = DEFAULT];
- getRealUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
optional string real_user = 2;
- getRealUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
optional string real_user = 2;
- getRealUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformationOrBuilder
-
optional string real_user = 2;
- getRealUserBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
optional string real_user = 2;
- getRealUserBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
optional string real_user = 2;
- getRealUserBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformationOrBuilder
-
optional string real_user = 2;
- getReason() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest.Builder
-
required string reason = 1;
- getReason() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest
-
required string reason = 1;
- getReason() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequestOrBuilder
-
required string reason = 1;
- getReasonBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest.Builder
-
required string reason = 1;
- getReasonBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest
-
required string reason = 1;
- getReasonBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequestOrBuilder
-
required string reason = 1;
- getReference() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
optional .hbase.pb.Reference reference = 2;
- getReference() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
optional .hbase.pb.Reference reference = 2;
- getReference() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFileOrBuilder
-
optional .hbase.pb.Reference reference = 2;
- getReferenceBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
optional .hbase.pb.Reference reference = 2;
- getReferenceOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
optional .hbase.pb.Reference reference = 2;
- getReferenceOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
optional .hbase.pb.Reference reference = 2;
- getReferenceOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFileOrBuilder
-
optional .hbase.pb.Reference reference = 2;
- getRegex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest.Builder
-
optional string regex = 1;
- getRegex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest
-
optional string regex = 1;
- getRegex() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequestOrBuilder
-
optional string regex = 1;
- getRegexBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest.Builder
-
optional string regex = 1;
- getRegexBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest
-
optional string regex = 1;
- getRegexBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequestOrBuilder
-
optional string regex = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
required .hbase.pb.RegionInfo region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfoOrBuilder
-
required .hbase.pb.RegionInfo region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
required .hbase.pb.RegionInfo region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfoOrBuilder
-
required .hbase.pb.RegionInfo region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponseOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegion(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegion(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStatsOrBuilder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 1;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.RegionInfo region = 4;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
optional .hbase.pb.RegionInfo region = 4;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplitOrBuilder
-
optional .hbase.pb.RegionInfo region = 4;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 4;
- getRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
optional .hbase.pb.RegionSpecifier region = 4;
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 4;
- getRegionA() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_a = 1;
- getRegionA() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
required .hbase.pb.RegionSpecifier region_a = 1;
- getRegionA() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region_a = 1;
- getRegionABuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_a = 1;
- getRegionAction(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionAction(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionAction(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequestOrBuilder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequestOrBuilder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequestOrBuilder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequestOrBuilder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequestOrBuilder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- getRegionActionResult(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResult(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResult(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponseOrBuilder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponseOrBuilder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponseOrBuilder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponseOrBuilder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionActionResultOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponseOrBuilder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- getRegionAOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_a = 1;
- getRegionAOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
required .hbase.pb.RegionSpecifier region_a = 1;
- getRegionAOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region_a = 1;
- getRegionB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_b = 2;
- getRegionB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
required .hbase.pb.RegionSpecifier region_b = 2;
- getRegionB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region_b = 2;
- getRegionBBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_b = 2;
- getRegionBOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_b = 2;
- getRegionBOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
required .hbase.pb.RegionSpecifier region_b = 2;
- getRegionBOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region_b = 2;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 1;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.RegionInfo region = 4;
- getRegionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 4;
- getRegionBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStatsOrBuilder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
required uint64 region_id = 1;
- getRegionId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
required uint64 region_id = 1;
- getRegionId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
required uint64 region_id = 1;
- getRegionInfo(RpcController, AdminProtos.GetRegionInfoRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.BlockingInterface
-
- getRegionInfo(RpcController, AdminProtos.GetRegionInfoRequest, RpcCallback<AdminProtos.GetRegionInfoResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService
-
rpc GetRegionInfo(.hbase.pb.GetRegionInfoRequest) returns (.hbase.pb.GetRegionInfoResponse);
- getRegionInfo(RpcController, AdminProtos.GetRegionInfoRequest, RpcCallback<AdminProtos.GetRegionInfoResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Interface
-
rpc GetRegionInfo(.hbase.pb.GetRegionInfoRequest) returns (.hbase.pb.GetRegionInfoResponse);
- getRegionInfo(RpcController, AdminProtos.GetRegionInfoRequest, RpcCallback<AdminProtos.GetRegionInfoResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Stub
-
- getRegionInfo(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfo(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfo(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponseOrBuilder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponseOrBuilder
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest.Builder
-
required .hbase.pb.RegionInfo regionInfo = 1;
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest
-
required .hbase.pb.RegionInfo regionInfo = 1;
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequestOrBuilder
-
required .hbase.pb.RegionInfo regionInfo = 1;
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStateOrBuilder
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
required .hbase.pb.RegionInfo region_info = 2;
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
required .hbase.pb.RegionInfo region_info = 2;
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifestOrBuilder
-
required .hbase.pb.RegionInfo region_info = 2;
- getRegionInfoBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest.Builder
-
required .hbase.pb.RegionInfo regionInfo = 1;
- getRegionInfoBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
required .hbase.pb.RegionInfo region_info = 2;
- getRegionInfoBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponseOrBuilder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponseOrBuilder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponseOrBuilder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponseOrBuilder
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest.Builder
-
required .hbase.pb.RegionInfo regionInfo = 1;
- getRegionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest
-
required .hbase.pb.RegionInfo regionInfo = 1;
- getRegionInfoOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequestOrBuilder
-
required .hbase.pb.RegionInfo regionInfo = 1;
- getRegionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStateOrBuilder
-
required .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
required .hbase.pb.RegionInfo region_info = 2;
- getRegionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
required .hbase.pb.RegionInfo region_info = 2;
- getRegionInfoOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifestOrBuilder
-
required .hbase.pb.RegionInfo region_info = 2;
- getRegionInfoOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionInfoOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponseOrBuilder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- getRegionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStatsOrBuilder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionLoads(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoads(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoads(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionLoadsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- getRegionManifests(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifests(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifests(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifestOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifestOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifestOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifestOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionManifestsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifestOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
optional bytes region_name = 7;
full region name
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
optional bytes region_name = 7;
full region name
- getRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
optional bytes region_name = 7;
full region name
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
optional bytes region_name = 6;
full region name
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
optional bytes region_name = 6;
full region name
- getRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
optional bytes region_name = 6;
full region name
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional bytes region_name = 7;
full region name
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
optional bytes region_name = 7;
full region name
- getRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
optional bytes region_name = 7;
full region name
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
required .hbase.pb.RegionInfo region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfoOrBuilder
-
required .hbase.pb.RegionInfo region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
required .hbase.pb.RegionInfo region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfoOrBuilder
-
required .hbase.pb.RegionInfo region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponseOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStatsOrBuilder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 2;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.RegionInfo region = 4;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
optional .hbase.pb.RegionInfo region = 4;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplitOrBuilder
-
optional .hbase.pb.RegionInfo region = 4;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 4;
- getRegionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
optional .hbase.pb.RegionSpecifier region = 4;
- getRegionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 4;
- getRegionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStatsOrBuilder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- getRegionsInTransition(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransition(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransition(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionsInTransitionOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- getRegionSpecifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- getRegionSpecifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- getRegionSpecifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- getRegionSpecifierBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- getRegionSpecifierOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- getRegionSpecifierOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- getRegionSpecifierOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- getRegionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionState region_state = 2;
- getRegionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
required .hbase.pb.RegionState region_state = 2;
- getRegionState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransitionOrBuilder
-
required .hbase.pb.RegionState region_state = 2;
- getRegionStateBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionState region_state = 2;
- getRegionStateOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionState region_state = 2;
- getRegionStateOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
required .hbase.pb.RegionState region_state = 2;
- getRegionStateOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransitionOrBuilder
-
required .hbase.pb.RegionState region_state = 2;
- getRegionStatistics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- getRegionStatistics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- getRegionStatistics() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponseOrBuilder
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- getRegionStatisticsBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- getRegionStatisticsOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- getRegionStatisticsOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- getRegionStatisticsOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponseOrBuilder
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- getRegionToFlush(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse.Builder
-
repeated bytes region_to_flush = 1;
A list of encoded name of regions to flush
- getRegionToFlush(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse
-
repeated bytes region_to_flush = 1;
A list of encoded name of regions to flush
- getRegionToFlush(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponseOrBuilder
-
repeated bytes region_to_flush = 1;
A list of encoded name of regions to flush
- getRegionToFlushCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse.Builder
-
repeated bytes region_to_flush = 1;
A list of encoded name of regions to flush
- getRegionToFlushCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse
-
repeated bytes region_to_flush = 1;
A list of encoded name of regions to flush
- getRegionToFlushCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponseOrBuilder
-
repeated bytes region_to_flush = 1;
A list of encoded name of regions to flush
- getRegionToFlushList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse.Builder
-
repeated bytes region_to_flush = 1;
A list of encoded name of regions to flush
- getRegionToFlushList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse
-
repeated bytes region_to_flush = 1;
A list of encoded name of regions to flush
- getRegionToFlushList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponseOrBuilder
-
repeated bytes region_to_flush = 1;
A list of encoded name of regions to flush
- getRemove() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
optional bool remove = 3 [default = false];
When true, remove the quota.
- getRemove() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
optional bool remove = 3 [default = false];
When true, remove the quota.
- getRemove() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaOrBuilder
-
optional bool remove = 3 [default = false];
When true, remove the quota.
- getRenew() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool renew = 10 [default = false];
- getRenew() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional bool renew = 10 [default = false];
- getRenew() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional bool renew = 10 [default = false];
- getReplicaId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional int32 replica_id = 7 [default = 0];
- getReplicaId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
optional int32 replica_id = 7 [default = 0];
- getReplicaId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
optional int32 replica_id = 7 [default = 0];
- getReplicationClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string replicationClusterId = 2;
- getReplicationClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
optional string replicationClusterId = 2;
- getReplicationClusterId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
optional string replicationClusterId = 2;
- getReplicationClusterIdBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string replicationClusterId = 2;
- getReplicationClusterIdBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
optional string replicationClusterId = 2;
- getReplicationClusterIdBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
optional string replicationClusterId = 2;
- getReplicationEndpointImpl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
optional string replicationEndpointImpl = 2;
- getReplicationEndpointImpl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
optional string replicationEndpointImpl = 2;
- getReplicationEndpointImpl() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
optional string replicationEndpointImpl = 2;
- getReplicationEndpointImplBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
optional string replicationEndpointImpl = 2;
- getReplicationEndpointImplBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
optional string replicationEndpointImpl = 2;
- getReplicationEndpointImplBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
optional string replicationEndpointImpl = 2;
- getReplicationLag() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint64 replicationLag = 5;
- getReplicationLag() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required uint64 replicationLag = 5;
- getReplicationLag() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required uint64 replicationLag = 5;
- getReplLoadSink() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- getReplLoadSink() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- getReplLoadSink() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- getReplLoadSinkBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- getReplLoadSinkOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- getReplLoadSinkOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- getReplLoadSinkOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- getReplLoadSource(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSource(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSource(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReplLoadSourceOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- getReportEndTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 report_end_time = 8;
Time when report was generated.
- getReportEndTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint64 report_end_time = 8;
Time when report was generated.
- getReportEndTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint64 report_end_time = 8;
Time when report was generated.
- getReportStartTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 report_start_time = 7;
Time when incremental (non-total) counts began being calculated (e.g. number_of_requests)
time is measured as the difference, measured in milliseconds, between the current time
and midnight, January 1, 1970 UTC.
- getReportStartTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint64 report_start_time = 7;
Time when incremental (non-total) counts began being calculated (e.g. number_of_requests)
time is measured as the difference, measured in milliseconds, between the current time
and midnight, January 1, 1970 UTC.
- getReportStartTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint64 report_start_time = 7;
Time when incremental (non-total) counts began being calculated (e.g. number_of_requests)
time is measured as the difference, measured in milliseconds, between the current time
and midnight, January 1, 1970 UTC.
- getReqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_num = 1;
- getReqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota req_num = 1;
- getReqNum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota req_num = 1;
- getReqNumBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_num = 1;
- getReqNumOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_num = 1;
- getReqNumOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota req_num = 1;
- getReqNumOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota req_num = 1;
- getReqSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_size = 2;
- getReqSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota req_size = 2;
- getReqSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota req_size = 2;
- getReqSizeBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_size = 2;
- getReqSizeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_size = 2;
- getReqSizeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota req_size = 2;
- getReqSizeOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota req_size = 2;
- getRequest() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required bytes request = 4;
- getRequest() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
required bytes request = 4;
- getRequest() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCallOrBuilder
-
required bytes request = 4;
- getRequestParam() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional bool request_param = 4;
If true, then a pb Message param follows.
- getRequestParam() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional bool request_param = 4;
If true, then a pb Message param follows.
- getRequestParam() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional bool request_param = 4;
If true, then a pb Message param follows.
- getRequestPrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingService
-
- getRequestPrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestRpcServiceProtos.TestProtobufRpcProto
-
- getRequestPrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService
-
- getRequestPrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService
-
- getRequestPrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationService
-
- getRequestPrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService
-
- getRequestPrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationService
-
- getRequestPrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.RowProcessorService
-
- getRequestPrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService
-
- getResponse() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse.Builder
-
optional string response = 1;
- getResponse() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse
-
optional string response = 1;
- getResponse() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponseOrBuilder
-
optional string response = 1;
- getResponse() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse.Builder
-
optional uint32 response = 1;
- getResponse() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse
-
optional uint32 response = 1;
- getResponse() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponseOrBuilder
-
optional uint32 response = 1;
- getResponseBytes() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse.Builder
-
optional string response = 1;
- getResponseBytes() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse
-
optional string response = 1;
- getResponseBytes() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponseOrBuilder
-
optional string response = 1;
- getResponsePrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingService
-
- getResponsePrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestRpcServiceProtos.TestProtobufRpcProto
-
- getResponsePrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService
-
- getResponsePrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService
-
- getResponsePrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationService
-
- getResponsePrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService
-
- getResponsePrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationService
-
- getResponsePrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.RowProcessorService
-
- getResponsePrototype(Descriptors.MethodDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService
-
- getResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse.Builder
-
optional .hbase.pb.Result result = 1;
- getResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse
-
optional .hbase.pb.Result result = 1;
- getResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponseOrBuilder
-
optional .hbase.pb.Result result = 1;
- getResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
optional .hbase.pb.Result result = 1;
- getResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
optional .hbase.pb.Result result = 1;
- getResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponseOrBuilder
-
optional .hbase.pb.Result result = 1;
- getResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.Result result = 2;
- getResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional .hbase.pb.Result result = 2;
- getResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional .hbase.pb.Result result = 2;
- getResult(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResult(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResult(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponseOrBuilder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse.Builder
-
optional .hbase.pb.Result result = 1;
- getResultBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
optional .hbase.pb.Result result = 1;
- getResultBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.Result result = 2;
- getResultBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponseOrBuilder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponseOrBuilder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse.Builder
-
optional .hbase.pb.Result result = 1;
- getResultOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse
-
optional .hbase.pb.Result result = 1;
- getResultOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponseOrBuilder
-
optional .hbase.pb.Result result = 1;
- getResultOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
optional .hbase.pb.Result result = 1;
- getResultOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
optional .hbase.pb.Result result = 1;
- getResultOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponseOrBuilder
-
optional .hbase.pb.Result result = 1;
- getResultOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.Result result = 2;
- getResultOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional .hbase.pb.Result result = 2;
- getResultOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional .hbase.pb.Result result = 2;
- getResultOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponseOrBuilder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponseOrBuilder
-
repeated .hbase.pb.RegionActionResult result = 1;
- getResultOrException(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrException(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrException(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResultOrBuilder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResultOrBuilder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResultOrBuilder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResultOrBuilder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResultOrExceptionOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResultOrBuilder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- getResults(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResults(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResults(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getResultsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- getReversed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool reversed = 15 [default = false];
- getReversed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool reversed = 15 [default = false];
- getReversed() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool reversed = 15 [default = false];
- getRevision() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string revision = 3;
- getRevision() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string revision = 3;
- getRevision() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string revision = 3;
- getRevisionBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string revision = 3;
- getRevisionBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string revision = 3;
- getRevisionBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string revision = 3;
- getRootIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 root_index_size_KB = 12;
The current total size of root-level indexes for the region, in KB.
- getRootIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 root_index_size_KB = 12;
The current total size of root-level indexes for the region, in KB.
- getRootIndexSizeKB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 root_index_size_KB = 12;
The current total size of root-level indexes for the region, in KB.
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional bytes row = 1;
- getRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
required bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
required bytes row = 1;
- getRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
required bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required bytes row = 1;
- getRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
required bytes row = 1;
- getRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCallOrBuilder
-
required bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor.Builder
-
optional bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor
-
optional bytes row = 1;
- getRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CursorOrBuilder
-
optional bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
required bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
required bytes row = 1;
- getRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
required bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional bytes row = 1;
- getRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional bytes row = 1;
- getRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional bytes row = 1;
- getRowProcessorClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
required string row_processor_class_name = 1;
- getRowProcessorClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
required string row_processor_class_name = 1;
- getRowProcessorClassName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
required string row_processor_class_name = 1;
- getRowProcessorClassNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
required string row_processor_class_name = 1;
- getRowProcessorClassNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
required string row_processor_class_name = 1;
- getRowProcessorClassNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
required string row_processor_class_name = 1;
- getRowProcessorInitializerMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional bytes row_processor_initializer_message = 3;
- getRowProcessorInitializerMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
optional bytes row_processor_initializer_message = 3;
- getRowProcessorInitializerMessage() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
optional bytes row_processor_initializer_message = 3;
- getRowProcessorInitializerMessageName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional string row_processor_initializer_message_name = 2;
- getRowProcessorInitializerMessageName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
optional string row_processor_initializer_message_name = 2;
- getRowProcessorInitializerMessageName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
optional string row_processor_initializer_message_name = 2;
- getRowProcessorInitializerMessageNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional string row_processor_initializer_message_name = 2;
- getRowProcessorInitializerMessageNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
optional string row_processor_initializer_message_name = 2;
- getRowProcessorInitializerMessageNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
optional string row_processor_initializer_message_name = 2;
- getRowProcessorResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse.Builder
-
required bytes row_processor_result = 1;
- getRowProcessorResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse
-
required bytes row_processor_result = 1;
- getRowProcessorResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponseOrBuilder
-
required bytes row_processor_result = 1;
- getRowRangeList(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeList(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeList(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilterOrBuilder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilterOrBuilder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilterOrBuilder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilterOrBuilder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRowRangeListOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilterOrBuilder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- getRpcVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
optional uint32 rpc_version = 2;
Major RPC version so that clients can know what version the master can accept.
- getRpcVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
optional uint32 rpc_version = 2;
Major RPC version so that clients can know what version the master can accept.
- getRpcVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MasterOrBuilder
-
optional uint32 rpc_version = 2;
Major RPC version so that clients can know what version the master can accept.
- getRpcVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
optional uint32 rpc_version = 2;
The major version of the rpc the server speaks.
- getRpcVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
optional uint32 rpc_version = 2;
The major version of the rpc the server speaks.
- getRpcVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServerOrBuilder
-
optional uint32 rpc_version = 2;
The major version of the rpc the server speaks.
- getScan() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.Scan scan = 2;
- getScan() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional .hbase.pb.Scan scan = 2;
- getScan() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional .hbase.pb.Scan scan = 2;
- getScanBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.Scan scan = 2;
- getScanMetrics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- getScanMetrics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- getScanMetrics() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- getScanMetricsBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- getScanMetricsOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- getScanMetricsOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- getScanMetricsOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- getScannerId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint64 scanner_id = 3;
- getScannerId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional uint64 scanner_id = 3;
- getScannerId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional uint64 scanner_id = 3;
- getScannerId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional uint64 scanner_id = 2;
- getScannerId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional uint64 scanner_id = 2;
- getScannerId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional uint64 scanner_id = 2;
- getScanOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.Scan scan = 2;
- getScanOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional .hbase.pb.Scan scan = 2;
- getScanOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional .hbase.pb.Scan scan = 2;
- getScope() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
optional .hbase.pb.QuotaScope scope = 4 [default = MACHINE];
- getScope() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
optional .hbase.pb.QuotaScope scope = 4 [default = MACHINE];
- getScope() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuotaOrBuilder
-
optional .hbase.pb.QuotaScope scope = 4 [default = MACHINE];
- getScopes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopesOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- getScopeType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope.Builder
-
required .hbase.pb.ScopeType scope_type = 2;
- getScopeType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
required .hbase.pb.ScopeType scope_type = 2;
- getScopeType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScopeOrBuilder
-
required .hbase.pb.ScopeType scope_type = 2;
- getSecond() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair.Builder
-
required bytes second = 2;
- getSecond() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
required bytes second = 2;
- getSecond() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPairOrBuilder
-
required bytes second = 2;
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId.Builder
-
required uint64 sequence_id = 2;
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
required uint64 sequence_id = 2;
- getSequenceId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceIdOrBuilder
-
required uint64 sequence_id = 2;
- getSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
optional int64 sequence_number = 6;
- getSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
optional int64 sequence_number = 6;
- getSequenceNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
optional int64 sequence_number = 6;
- getSerializedComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
optional bytes serialized_comparator = 2;
- getSerializedComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
optional bytes serialized_comparator = 2;
- getSerializedComparator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ComparatorOrBuilder
-
optional bytes serialized_comparator = 2;
- getSerializedFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
optional bytes serialized_filter = 2;
- getSerializedFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
optional bytes serialized_filter = 2;
- getSerializedFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterOrBuilder
-
optional bytes serialized_filter = 2;
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyRequestProto
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyResponseProto
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.NullComparator
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterAllFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyOnlyFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.EmptyMsg
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaUsage
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALTrailer
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState
-
- getSerializedSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
- getServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerName server = 1;
- getServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
required .hbase.pb.ServerName server = 1;
- getServer() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfoOrBuilder
-
required .hbase.pb.ServerName server = 1;
- getServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- getServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- getServer() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- getServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- getServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- getServer() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServerOrBuilder
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- getServerBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerName server = 1;
- getServerBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- getServerBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- getServerInfo(RpcController, AdminProtos.GetServerInfoRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.BlockingInterface
-
- getServerInfo(RpcController, AdminProtos.GetServerInfoRequest, RpcCallback<AdminProtos.GetServerInfoResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService
-
rpc GetServerInfo(.hbase.pb.GetServerInfoRequest) returns (.hbase.pb.GetServerInfoResponse);
- getServerInfo(RpcController, AdminProtos.GetServerInfoRequest, RpcCallback<AdminProtos.GetServerInfoResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Interface
-
rpc GetServerInfo(.hbase.pb.GetServerInfoRequest) returns (.hbase.pb.GetServerInfoResponse);
- getServerInfo(RpcController, AdminProtos.GetServerInfoRequest, RpcCallback<AdminProtos.GetServerInfoResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Stub
-
- getServerInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse.Builder
-
required .hbase.pb.ServerInfo server_info = 1;
- getServerInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
required .hbase.pb.ServerInfo server_info = 1;
- getServerInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponseOrBuilder
-
required .hbase.pb.ServerInfo server_info = 1;
- getServerInfoBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse.Builder
-
required .hbase.pb.ServerInfo server_info = 1;
- getServerInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse.Builder
-
required .hbase.pb.ServerInfo server_info = 1;
- getServerInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
required .hbase.pb.ServerInfo server_info = 1;
- getServerInfoOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponseOrBuilder
-
required .hbase.pb.ServerInfo server_info = 1;
- getServerLoad() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerLoad server_load = 2;
- getServerLoad() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
required .hbase.pb.ServerLoad server_load = 2;
- getServerLoad() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfoOrBuilder
-
required .hbase.pb.ServerLoad server_load = 2;
- getServerLoadBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerLoad server_load = 2;
- getServerLoadOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerLoad server_load = 2;
- getServerLoadOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
required .hbase.pb.ServerLoad server_load = 2;
- getServerLoadOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfoOrBuilder
-
required .hbase.pb.ServerLoad server_load = 2;
- getServerName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
required .hbase.pb.ServerName server_name = 1;
- getServerName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
required .hbase.pb.ServerName server_name = 1;
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfoOrBuilder
-
required .hbase.pb.ServerName server_name = 1;
- getServerName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- getServerName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTaskOrBuilder
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- getServerNameBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
required .hbase.pb.ServerName server_name = 1;
- getServerNameBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- getServerNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
required .hbase.pb.ServerName server_name = 1;
- getServerNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
required .hbase.pb.ServerName server_name = 1;
- getServerNameOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfoOrBuilder
-
required .hbase.pb.ServerName server_name = 1;
- getServerNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- getServerNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- getServerNameOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTaskOrBuilder
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- getServerOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerName server = 1;
- getServerOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
required .hbase.pb.ServerName server = 1;
- getServerOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfoOrBuilder
-
required .hbase.pb.ServerName server = 1;
- getServerOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- getServerOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- getServerOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- getServerOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- getServerOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- getServerOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServerOrBuilder
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- getServers(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.ServerName servers = 4;
- getServers(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
repeated .hbase.pb.ServerName servers = 4;
- getServers(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
repeated .hbase.pb.ServerName servers = 4;
- getServersBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.ServerName servers = 4;
- getServersBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.ServerName servers = 4;
- getServersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.ServerName servers = 4;
- getServersCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
repeated .hbase.pb.ServerName servers = 4;
- getServersCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
repeated .hbase.pb.ServerName servers = 4;
- getServersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.ServerName servers = 4;
- getServersList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
repeated .hbase.pb.ServerName servers = 4;
- getServersList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
repeated .hbase.pb.ServerName servers = 4;
- getServersOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.ServerName servers = 4;
- getServersOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
repeated .hbase.pb.ServerName servers = 4;
- getServersOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
repeated .hbase.pb.ServerName servers = 4;
- getServersOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.ServerName servers = 4;
- getServersOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
repeated .hbase.pb.ServerName servers = 4;
- getServersOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
repeated .hbase.pb.ServerName servers = 4;
- getServerStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional uint64 serverStartCode = 5;
the intended server for this RPC.
- getServerStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
optional uint64 serverStartCode = 5;
the intended server for this RPC.
- getServerStartCode() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
optional uint64 serverStartCode = 5;
the intended server for this RPC.
- getServerStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
optional uint64 serverStartCode = 2;
the intended server for this RPC.
- getServerStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
optional uint64 serverStartCode = 2;
the intended server for this RPC.
- getServerStartCode() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequestOrBuilder
-
optional uint64 serverStartCode = 2;
the intended server for this RPC.
- getService() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
optional bytes service = 3;
- getService() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
optional bytes service = 3;
- getService() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenOrBuilder
-
optional bytes service = 3;
- getService() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional string service = 4;
- getService() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
optional string service = 4;
- getService() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationTokenOrBuilder
-
optional string service = 4;
- getServiceBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional string service = 4;
- getServiceBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
optional string service = 4;
- getServiceBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationTokenOrBuilder
-
optional string service = 4;
- getServiceCall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- getServiceCall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- getServiceCall() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- getServiceCallBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- getServiceCallOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- getServiceCallOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- getServiceCallOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- getServiceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required string service_name = 2;
- getServiceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
required string service_name = 2;
- getServiceName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCallOrBuilder
-
required string service_name = 2;
- getServiceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string service_name = 2;
- getServiceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional string service_name = 2;
- getServiceName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional string service_name = 2;
- getServiceNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required string service_name = 2;
- getServiceNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
required string service_name = 2;
- getServiceNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCallOrBuilder
-
required string service_name = 2;
- getServiceNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string service_name = 2;
- getServiceNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional string service_name = 2;
- getServiceNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional string service_name = 2;
- getServiceResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- getServiceResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- getServiceResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- getServiceResultBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- getServiceResultOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- getServiceResultOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- getServiceResultOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- getShare() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
optional float share = 3;
- getShare() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
optional float share = 3;
- getShare() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuotaOrBuilder
-
optional float share = 3;
- getSignature() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
required string signature = 1;
the unique signature of the procedure
- getSignature() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
required string signature = 1;
the unique signature of the procedure
- getSignature() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
required string signature = 1;
the unique signature of the procedure
- getSignatureBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
required string signature = 1;
the unique signature of the procedure
- getSignatureBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
required string signature = 1;
the unique signature of the procedure
- getSignatureBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
required string signature = 1;
the unique signature of the procedure
- getSingleColumnValueFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter.Builder
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- getSingleColumnValueFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- getSingleColumnValueFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilterOrBuilder
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- getSingleColumnValueFilterBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter.Builder
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- getSingleColumnValueFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter.Builder
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- getSingleColumnValueFilterOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- getSingleColumnValueFilterOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilterOrBuilder
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- getSizeOfLogQueue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint32 sizeOfLogQueue = 3;
- getSizeOfLogQueue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required uint32 sizeOfLogQueue = 3;
- getSizeOfLogQueue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required uint32 sizeOfLogQueue = 3;
- getSmall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
已过时。
- getSmall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
已过时。
- getSmall() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
已过时。
- getSoftLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
optional uint64 soft_limit = 1;
The limit of bytes for this quota
- getSoftLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
optional uint64 soft_limit = 1;
The limit of bytes for this quota
- getSoftLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaOrBuilder
-
optional uint64 soft_limit = 1;
The limit of bytes for this quota
- getSoftLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
optional uint64 soft_limit = 2;
- getSoftLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
optional uint64 soft_limit = 2;
- getSoftLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuotaOrBuilder
-
optional uint64 soft_limit = 2;
- getSortedPrefixes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter.Builder
-
repeated bytes sorted_prefixes = 1;
- getSortedPrefixes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
repeated bytes sorted_prefixes = 1;
- getSortedPrefixes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilterOrBuilder
-
repeated bytes sorted_prefixes = 1;
- getSortedPrefixesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter.Builder
-
repeated bytes sorted_prefixes = 1;
- getSortedPrefixesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
repeated bytes sorted_prefixes = 1;
- getSortedPrefixesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilterOrBuilder
-
repeated bytes sorted_prefixes = 1;
- getSortedPrefixesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter.Builder
-
repeated bytes sorted_prefixes = 1;
- getSortedPrefixesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
repeated bytes sorted_prefixes = 1;
- getSortedPrefixesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilterOrBuilder
-
repeated bytes sorted_prefixes = 1;
- getSource() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional string source = 1;
- getSource() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
optional string source = 1;
- getSource() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessageOrBuilder
-
optional string source = 1;
- getSourceBaseNamespaceDirPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string sourceBaseNamespaceDirPath = 3;
- getSourceBaseNamespaceDirPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
optional string sourceBaseNamespaceDirPath = 3;
- getSourceBaseNamespaceDirPath() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
optional string sourceBaseNamespaceDirPath = 3;
- getSourceBaseNamespaceDirPathBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string sourceBaseNamespaceDirPath = 3;
- getSourceBaseNamespaceDirPathBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
optional string sourceBaseNamespaceDirPath = 3;
- getSourceBaseNamespaceDirPathBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
optional string sourceBaseNamespaceDirPath = 3;
- getSourceBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional string source = 1;
- getSourceBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
optional string source = 1;
- getSourceBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessageOrBuilder
-
optional string source = 1;
- getSourceHFileArchiveDirPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string sourceHFileArchiveDirPath = 4;
- getSourceHFileArchiveDirPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
optional string sourceHFileArchiveDirPath = 4;
- getSourceHFileArchiveDirPath() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
optional string sourceHFileArchiveDirPath = 4;
- getSourceHFileArchiveDirPathBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string sourceHFileArchiveDirPath = 4;
- getSourceHFileArchiveDirPathBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
optional string sourceHFileArchiveDirPath = 4;
- getSourceHFileArchiveDirPathBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
optional string sourceHFileArchiveDirPath = 4;
- getSpace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.SpaceQuota space = 3;
- getSpace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
optional .hbase.pb.SpaceQuota space = 3;
- getSpace() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotasOrBuilder
-
optional .hbase.pb.SpaceQuota space = 3;
- getSpaceBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.SpaceQuota space = 3;
- getSpaceOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.SpaceQuota space = 3;
- getSpaceOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
optional .hbase.pb.SpaceQuota space = 3;
- getSpaceOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotasOrBuilder
-
optional .hbase.pb.SpaceQuota space = 3;
- getSpec() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionSpecifier spec = 1;
- getSpec() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
required .hbase.pb.RegionSpecifier spec = 1;
- getSpec() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransitionOrBuilder
-
required .hbase.pb.RegionSpecifier spec = 1;
- getSpecBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionSpecifier spec = 1;
- getSpecOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionSpecifier spec = 1;
- getSpecOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
required .hbase.pb.RegionSpecifier spec = 1;
- getSpecOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransitionOrBuilder
-
required .hbase.pb.RegionSpecifier spec = 1;
- getSplit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bool split = 6;
- getSplit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
optional bool split = 6;
- getSplit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
optional bool split = 6;
- getSplitkey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Builder
-
required bytes splitkey = 1;
- getSplitkey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
required bytes splitkey = 1;
- getSplitkey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.ReferenceOrBuilder
-
required bytes splitkey = 1;
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
optional bytes split_point = 2;
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
optional bytes split_point = 2;
- getSplitPoint() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequestOrBuilder
-
optional bytes split_point = 2;
- getSrcChecksum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string src_checksum = 6;
- getSrcChecksum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string src_checksum = 6;
- getSrcChecksum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string src_checksum = 6;
- getSrcChecksumBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string src_checksum = 6;
- getSrcChecksumBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string src_checksum = 6;
- getSrcChecksumBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string src_checksum = 6;
- getStackTrace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string stack_trace = 2;
Exception stack trace from the server side
- getStackTrace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional string stack_trace = 2;
Exception stack trace from the server side
- getStackTrace() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional string stack_trace = 2;
Exception stack trace from the server side
- getStackTraceBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string stack_trace = 2;
Exception stack trace from the server side
- getStackTraceBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional string stack_trace = 2;
Exception stack trace from the server side
- getStackTraceBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional string stack_trace = 2;
Exception stack trace from the server side
- getStale() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional bool stale = 4 [default = false];
Whether or not the results are coming from possibly stale data
- getStale() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
optional bool stale = 4 [default = false];
Whether or not the results are coming from possibly stale data
- getStale() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
optional bool stale = 4 [default = false];
Whether or not the results are coming from possibly stale data
- getStale() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool stale = 6;
- getStale() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional bool stale = 6;
- getStale() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional bool stale = 6;
- getStamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
optional uint64 stamp = 3;
- getStamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
optional uint64 stamp = 3;
- getStamp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStateOrBuilder
-
optional uint64 stamp = 3;
- getStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
optional uint64 start_code = 3;
- getStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
optional uint64 start_code = 3;
- getStartCode() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerNameOrBuilder
-
optional uint64 start_code = 3;
- getStartDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp.Builder
-
required string start_date = 1;
If this znode is present, cluster is up.
- getStartDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
required string start_date = 1;
If this znode is present, cluster is up.
- getStartDate() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUpOrBuilder
-
required string start_date = 1;
If this znode is present, cluster is up.
- getStartDateBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp.Builder
-
required string start_date = 1;
If this znode is present, cluster is up.
- getStartDateBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
required string start_date = 1;
If this znode is present, cluster is up.
- getStartDateBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUpOrBuilder
-
required string start_date = 1;
If this znode is present, cluster is up.
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bytes start_key = 3;
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
optional bytes start_key = 3;
- getStartKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
optional bytes start_key = 3;
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bytes start_row = 3;
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bytes start_row = 3;
- getStartRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bytes start_row = 3;
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bytes start_row = 1;
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
optional bytes start_row = 1;
- getStartRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRangeOrBuilder
-
optional bytes start_row = 1;
- getStartRowInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bool start_row_inclusive = 2;
- getStartRowInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
optional bool start_row_inclusive = 2;
- getStartRowInclusive() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRangeOrBuilder
-
optional bool start_row_inclusive = 2;
- getStat(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStat(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStat(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStatsOrBuilder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStatsOrBuilder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
required .hbase.pb.RegionState.State state = 2;
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
required .hbase.pb.RegionState.State state = 2;
- getState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStateOrBuilder
-
required .hbase.pb.RegionState.State state = 2;
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState.Builder
-
required .hbase.pb.TableState.State state = 1;
This is the table's state.
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState
-
required .hbase.pb.TableState.State state = 1;
This is the table's state.
- getState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableStateOrBuilder
-
required .hbase.pb.TableState.State state = 1;
This is the table's state.
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState.Builder
-
required .hbase.pb.DeprecatedTableState.State state = 1 [default = ENABLED];
This is the table's state.
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState
-
required .hbase.pb.DeprecatedTableState.State state = 1 [default = ENABLED];
This is the table's state.
- getState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableStateOrBuilder
-
required .hbase.pb.DeprecatedTableState.State state = 1 [default = ENABLED];
This is the table's state.
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
optional .hbase.pb.RegionState.State state = 3;
State of the region transition.
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
optional .hbase.pb.RegionState.State state = 3;
State of the region transition.
- getState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServerOrBuilder
-
optional .hbase.pb.RegionState.State state = 3;
State of the region transition.
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState.Builder
-
required .hbase.pb.ReplicationState.State state = 1;
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState
-
required .hbase.pb.ReplicationState.State state = 1;
- getState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationStateOrBuilder
-
required .hbase.pb.ReplicationState.State state = 1;
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
required .hbase.pb.SplitLogTask.State state = 1;
- getState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
required .hbase.pb.SplitLogTask.State state = 1;
- getState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTaskOrBuilder
-
required .hbase.pb.SplitLogTask.State state = 1;
- getStatList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStatsOrBuilder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStatsOrBuilder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStatOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStatsOrBuilder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- getStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bytes stop_row = 4;
- getStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bytes stop_row = 4;
- getStopRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bytes stop_row = 4;
- getStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bytes stop_row = 3;
- getStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
optional bytes stop_row = 3;
- getStopRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRangeOrBuilder
-
optional bytes stop_row = 3;
- getStopRowInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bool stop_row_inclusive = 4;
- getStopRowInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
optional bool stop_row_inclusive = 4;
- getStopRowInclusive() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRangeOrBuilder
-
optional bool stop_row_inclusive = 4;
- getStopRowKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter.Builder
-
optional bytes stop_row_key = 1;
- getStopRowKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter
-
optional bytes stop_row_key = 1;
- getStopRowKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilterOrBuilder
-
optional bytes stop_row_key = 1;
- getStoreCompleteSequenceId(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceId(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceId(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreCompleteSequenceIdOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- getStoreFile(RpcController, AdminProtos.GetStoreFileRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.BlockingInterface
-
- getStoreFile(RpcController, AdminProtos.GetStoreFileRequest, RpcCallback<AdminProtos.GetStoreFileResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService
-
rpc GetStoreFile(.hbase.pb.GetStoreFileRequest) returns (.hbase.pb.GetStoreFileResponse);
- getStoreFile(RpcController, AdminProtos.GetStoreFileRequest, RpcCallback<AdminProtos.GetStoreFileResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Interface
-
rpc GetStoreFile(.hbase.pb.GetStoreFileRequest) returns (.hbase.pb.GetStoreFileResponse);
- getStoreFile(RpcController, AdminProtos.GetStoreFileRequest, RpcCallback<AdminProtos.GetStoreFileResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Stub
-
- getStoreFile(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse.Builder
-
repeated string store_file = 1;
- getStoreFile(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
repeated string store_file = 1;
- getStoreFile(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponseOrBuilder
-
repeated string store_file = 1;
- getStoreFile(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
repeated string store_file = 3;
relative to store dir
- getStoreFile(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
repeated string store_file = 3;
relative to store dir
- getStoreFile(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
repeated string store_file = 3;
relative to store dir
- getStoreFileBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse.Builder
-
repeated string store_file = 1;
- getStoreFileBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
repeated string store_file = 1;
- getStoreFileBytes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponseOrBuilder
-
repeated string store_file = 1;
- getStoreFileBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
repeated string store_file = 3;
relative to store dir
- getStoreFileBytes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
repeated string store_file = 3;
relative to store dir
- getStoreFileBytes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
repeated string store_file = 3;
relative to store dir
- getStoreFileCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse.Builder
-
repeated string store_file = 1;
- getStoreFileCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
repeated string store_file = 1;
- getStoreFileCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponseOrBuilder
-
repeated string store_file = 1;
- getStoreFileCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
repeated string store_file = 3;
relative to store dir
- getStoreFileCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
repeated string store_file = 3;
relative to store dir
- getStoreFileCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
repeated string store_file = 3;
relative to store dir
- getStorefileIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 storefile_index_size_KB = 7;
The current total size of root-level store file indexes for the region,
in KB.
- getStorefileIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 storefile_index_size_KB = 7;
The current total size of root-level store file indexes for the region,
in KB.
- getStorefileIndexSizeKB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 storefile_index_size_KB = 7;
The current total size of root-level store file indexes for the region,
in KB.
- getStoreFileList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse.Builder
-
repeated string store_file = 1;
- getStoreFileList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
repeated string store_file = 1;
- getStoreFileList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponseOrBuilder
-
repeated string store_file = 1;
- getStoreFileList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
repeated string store_file = 3;
relative to store dir
- getStoreFileList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
repeated string store_file = 3;
relative to store dir
- getStoreFileList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
repeated string store_file = 3;
relative to store dir
- getStorefiles() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 storefiles = 3;
the number of storefiles for the region
- getStorefiles() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 storefiles = 3;
the number of storefiles for the region
- getStorefiles() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 storefiles = 3;
the number of storefiles for the region
- getStoreFiles(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFiles(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFiles(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFilesOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFilesOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFileSizeBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
optional uint64 store_file_size_bytes = 4;
size of store file
- getStoreFileSizeBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
optional uint64 store_file_size_bytes = 4;
size of store file
- getStoreFileSizeBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
optional uint64 store_file_size_bytes = 4;
size of store file
- getStorefileSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 storefile_size_MB = 5;
the current total size of the store files for the region, in MB
- getStorefileSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 storefile_size_MB = 5;
the current total size of the store files for the region, in MB
- getStorefileSizeMB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 storefile_size_MB = 5;
the current total size of the store files for the region, in MB
- getStoreFilesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFilesOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFilesOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFilesOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFilesOrBuilder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- getStoreFlushes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushes(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushes(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreFlushesOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- getStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required string store_home_dir = 6;
relative to region dir
- getStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
required string store_home_dir = 6;
relative to region dir
- getStoreHomeDir() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
required string store_home_dir = 6;
relative to region dir
- getStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDir() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptorOrBuilder
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDir() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDirBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required string store_home_dir = 6;
relative to region dir
- getStoreHomeDirBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
required string store_home_dir = 6;
relative to region dir
- getStoreHomeDirBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
required string store_home_dir = 6;
relative to region dir
- getStoreHomeDirBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDirBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDirBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptorOrBuilder
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDirBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDirBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
required string store_home_dir = 2;
relative to region dir
- getStoreHomeDirBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
required string store_home_dir = 2;
relative to region dir
- getStoreLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional uint32 store_limit = 8;
- getStoreLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional uint32 store_limit = 8;
- getStoreLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional uint32 store_limit = 8;
- getStoreLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 store_limit = 11;
- getStoreLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint32 store_limit = 11;
- getStoreLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint32 store_limit = 11;
- getStoreOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional uint32 store_offset = 9;
- getStoreOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional uint32 store_offset = 9;
- getStoreOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional uint32 store_offset = 9;
- getStoreOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 store_offset = 12;
- getStoreOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint32 store_offset = 12;
- getStoreOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint32 store_offset = 12;
- getStores() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 stores = 2;
the number of stores for the region
- getStores() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 stores = 2;
the number of stores for the region
- getStores() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 stores = 2;
the number of stores for the region
- getStores(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStores(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStores(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStores(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStores(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStores(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoreSequenceId(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceId(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceId(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIdsOrBuilder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIdsOrBuilder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIdsOrBuilder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIdsOrBuilder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoreSequenceIdOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIdsOrBuilder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- getStoresList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- getStoresOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoresOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- getStoreUncompressedSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 store_uncompressed_size_MB = 4;
the total size of the store files for the region, uncompressed, in MB
- getStoreUncompressedSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 store_uncompressed_size_MB = 4;
the total size of the store files for the region, uncompressed, in MB
- getStoreUncompressedSizeMB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 store_uncompressed_size_MB = 4;
the total size of the store files for the region, uncompressed, in MB
- getSubstr() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator.Builder
-
required string substr = 1;
- getSubstr() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
required string substr = 1;
- getSubstr() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparatorOrBuilder
-
required string substr = 1;
- getSubstrBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator.Builder
-
required string substr = 1;
- getSubstrBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
required string substr = 1;
- getSubstrBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparatorOrBuilder
-
required string substr = 1;
- getTable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- getTable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- getTable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- getTable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.TableSchema table = 3;
- getTable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
optional .hbase.pb.TableSchema table = 3;
- getTable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplitOrBuilder
-
optional .hbase.pb.TableSchema table = 3;
- getTableBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.TableSchema table = 3;
- getTableBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- getTableBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- getTableBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- getTableCfs(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfs(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfs(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableCfsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData.Builder
-
required string table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData
-
required string table_name = 1;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateDataOrBuilder
-
required string table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional .hbase.pb.TableName table_name = 2;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
optional .hbase.pb.TableName table_name = 2;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequestOrBuilder
-
optional .hbase.pb.TableName table_name = 2;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional .hbase.pb.TableName table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
optional .hbase.pb.TableName table_name = 1;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermissionOrBuilder
-
optional .hbase.pb.TableName table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
required .hbase.pb.TableName table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
required .hbase.pb.TableName table_name = 1;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequestOrBuilder
-
required .hbase.pb.TableName table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
required .hbase.pb.TableName table_name = 2;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
required .hbase.pb.TableName table_name = 2;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
required .hbase.pb.TableName table_name = 2;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
optional .hbase.pb.TableName table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
optional .hbase.pb.TableName table_name = 1;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
optional .hbase.pb.TableName table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required .hbase.pb.TableName table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
required .hbase.pb.TableName table_name = 1;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
required .hbase.pb.TableName table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required bytes table_name = 1;
TODO: WALKey already stores these, might remove
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
required bytes table_name = 1;
TODO: WALKey already stores these, might remove
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
required bytes table_name = 1;
TODO: WALKey already stores these, might remove
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
required bytes table_name = 2;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
required bytes table_name = 2;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
required bytes table_name = 2;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
required bytes table_name = 2;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
required bytes table_name = 2;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
required bytes table_name = 2;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required bytes table_name = 2;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
required bytes table_name = 2;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
required bytes table_name = 2;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
optional .hbase.pb.TableName table_name = 1;
- getTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
optional .hbase.pb.TableName table_name = 1;
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCFOrBuilder
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional .hbase.pb.TableName table_name = 2;
- getTableNameBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
required .hbase.pb.TableName table_name = 1;
- getTableNameBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
required .hbase.pb.TableName table_name = 2;
- getTableNameBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required .hbase.pb.TableName table_name = 1;
- getTableNameBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameBytes() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData.Builder
-
required string table_name = 1;
- getTableNameBytes() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData
-
required string table_name = 1;
- getTableNameBytes() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateDataOrBuilder
-
required string table_name = 1;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional .hbase.pb.TableName table_name = 2;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
optional .hbase.pb.TableName table_name = 2;
- getTableNameOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequestOrBuilder
-
optional .hbase.pb.TableName table_name = 2;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermissionOrBuilder
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
required .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
required .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequestOrBuilder
-
required .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
required .hbase.pb.TableName table_name = 2;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
required .hbase.pb.TableName table_name = 2;
- getTableNameOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
required .hbase.pb.TableName table_name = 2;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
required .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
required .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
optional .hbase.pb.TableName table_name = 1;
- getTableNameOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCFOrBuilder
-
optional .hbase.pb.TableName table_name = 1;
- getTableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.TableSchema table = 3;
- getTableOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
optional .hbase.pb.TableSchema table = 3;
- getTableOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplitOrBuilder
-
optional .hbase.pb.TableSchema table = 3;
- getTablePermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.TablePermission table_permission = 4;
- getTablePermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
optional .hbase.pb.TablePermission table_permission = 4;
- getTablePermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
optional .hbase.pb.TablePermission table_permission = 4;
- getTablePermissionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.TablePermission table_permission = 4;
- getTablePermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.TablePermission table_permission = 4;
- getTablePermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
optional .hbase.pb.TablePermission table_permission = 4;
- getTablePermissionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
optional .hbase.pb.TablePermission table_permission = 4;
- getTables(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.TableName tables = 3;
- getTables(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
repeated .hbase.pb.TableName tables = 3;
- getTables(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
repeated .hbase.pb.TableName tables = 3;
- getTablesBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.TableName tables = 3;
- getTablesBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.TableName tables = 3;
- getTableSchema() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
required .hbase.pb.TableSchema table_schema = 1;
- getTableSchema() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
required .hbase.pb.TableSchema table_schema = 1;
- getTableSchema() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifestOrBuilder
-
required .hbase.pb.TableSchema table_schema = 1;
- getTableSchemaBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
required .hbase.pb.TableSchema table_schema = 1;
- getTableSchemaOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
required .hbase.pb.TableSchema table_schema = 1;
- getTableSchemaOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
required .hbase.pb.TableSchema table_schema = 1;
- getTableSchemaOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifestOrBuilder
-
required .hbase.pb.TableSchema table_schema = 1;
- getTablesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.TableName tables = 3;
- getTablesCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
repeated .hbase.pb.TableName tables = 3;
- getTablesCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
repeated .hbase.pb.TableName tables = 3;
- getTablesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.TableName tables = 3;
- getTablesList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
repeated .hbase.pb.TableName tables = 3;
- getTablesList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
repeated .hbase.pb.TableName tables = 3;
- getTablesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.TableName tables = 3;
- getTablesOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
repeated .hbase.pb.TableName tables = 3;
- getTablesOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
repeated .hbase.pb.TableName tables = 3;
- getTablesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.TableName tables = 3;
- getTablesOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
repeated .hbase.pb.TableName tables = 3;
- getTablesOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
repeated .hbase.pb.TableName tables = 3;
- getTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes tags = 7;
- getTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional bytes tags = 7;
- getTags() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional bytes tags = 7;
- getTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional bytes tags = 7;
- getTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
optional bytes tags = 7;
- getTags() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
optional bytes tags = 7;
- getTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional bytes tags = 5;
- getTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
optional bytes tags = 5;
- getTags() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValueOrBuilder
-
optional bytes tags = 5;
- getThrottle() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.Throttle throttle = 2;
- getThrottle() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
optional .hbase.pb.Throttle throttle = 2;
- getThrottle() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotasOrBuilder
-
optional .hbase.pb.Throttle throttle = 2;
- getThrottleBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.Throttle throttle = 2;
- getThrottleOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.Throttle throttle = 2;
- getThrottleOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
optional .hbase.pb.Throttle throttle = 2;
- getThrottleOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotasOrBuilder
-
optional .hbase.pb.Throttle throttle = 2;
- getTimedQuota() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- getTimedQuota() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- getTimedQuota() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequestOrBuilder
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- getTimedQuotaBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- getTimedQuotaOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- getTimedQuotaOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- getTimedQuotaOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequestOrBuilder
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- getTimeout() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional uint32 timeout = 7;
- getTimeout() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional uint32 timeout = 7;
- getTimeout() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional uint32 timeout = 7;
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.TimeRange time_range = 5;
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional .hbase.pb.TimeRange time_range = 5;
- getTimeRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional .hbase.pb.TimeRange time_range = 5;
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- getTimeRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
required .hbase.pb.TimeRange time_range = 2;
- getTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
required .hbase.pb.TimeRange time_range = 2;
- getTimeRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRangeOrBuilder
-
required .hbase.pb.TimeRange time_range = 2;
- getTimeRangeBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRangeBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.TimeRange time_range = 5;
- getTimeRangeBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- getTimeRangeBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRangeBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
required .hbase.pb.TimeRange time_range = 2;
- getTimeRangeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRangeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRangeOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRangeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.TimeRange time_range = 5;
- getTimeRangeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional .hbase.pb.TimeRange time_range = 5;
- getTimeRangeOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional .hbase.pb.TimeRange time_range = 5;
- getTimeRangeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- getTimeRangeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- getTimeRangeOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- getTimeRangeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRangeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRangeOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional .hbase.pb.TimeRange time_range = 6;
- getTimeRangeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
required .hbase.pb.TimeRange time_range = 2;
- getTimeRangeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
required .hbase.pb.TimeRange time_range = 2;
- getTimeRangeOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRangeOrBuilder
-
required .hbase.pb.TimeRange time_range = 2;
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional uint64 timestamp = 4;
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional uint64 timestamp = 4;
- getTimestamp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional uint64 timestamp = 4;
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional uint64 timestamp = 4;
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
optional uint64 timestamp = 4;
- getTimestamp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
optional uint64 timestamp = 4;
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional uint64 timestamp = 4;
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional uint64 timestamp = 3;
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
optional uint64 timestamp = 3;
- getTimestamp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValueOrBuilder
-
optional uint64 timestamp = 3;
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional uint64 timestamp = 4;
- getTimestamp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional uint64 timestamp = 4;
- getTimeStampOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint64 timeStampOfLastShippedOp = 4;
- getTimeStampOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required uint64 timeStampOfLastShippedOp = 4;
- getTimeStampOfLastShippedOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required uint64 timeStampOfLastShippedOp = 4;
- getTimestamps(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter.Builder
-
repeated int64 timestamps = 1 [packed = true];
- getTimestamps(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
repeated int64 timestamps = 1 [packed = true];
- getTimestamps(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilterOrBuilder
-
repeated int64 timestamps = 1 [packed = true];
- getTimestampsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter.Builder
-
repeated int64 timestamps = 1 [packed = true];
- getTimestampsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
repeated int64 timestamps = 1 [packed = true];
- getTimestampsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilterOrBuilder
-
repeated int64 timestamps = 1 [packed = true];
- getTimestampsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter.Builder
-
repeated int64 timestamps = 1 [packed = true];
- getTimestampsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
repeated int64 timestamps = 1 [packed = true];
- getTimestampsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilterOrBuilder
-
repeated int64 timestamps = 1 [packed = true];
- getTimeStampsOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink.Builder
-
required uint64 timeStampsOfLastAppliedOp = 2;
- getTimeStampsOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
required uint64 timeStampsOfLastAppliedOp = 2;
- getTimeStampsOfLastAppliedOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSinkOrBuilder
-
required uint64 timeStampsOfLastAppliedOp = 2;
- getTimeUnit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
required .hbase.pb.TimeUnit time_unit = 1;
- getTimeUnit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
required .hbase.pb.TimeUnit time_unit = 1;
- getTimeUnit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuotaOrBuilder
-
required .hbase.pb.TimeUnit time_unit = 1;
- getTo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange.Builder
-
optional uint64 to = 2;
- getTo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
optional uint64 to = 2;
- getTo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRangeOrBuilder
-
optional uint64 to = 2;
- getToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse.Builder
-
optional .hbase.pb.Token token = 1;
- getToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse
-
optional .hbase.pb.Token token = 1;
- getToken() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponseOrBuilder
-
optional .hbase.pb.Token token = 1;
- getTokenBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse.Builder
-
optional .hbase.pb.Token token = 1;
- getTokenOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse.Builder
-
optional .hbase.pb.Token token = 1;
- getTokenOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse
-
optional .hbase.pb.Token token = 1;
- getTokenOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponseOrBuilder
-
optional .hbase.pb.Token token = 1;
- getTotalCompactingKVs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 total_compacting_KVs = 10;
the total compacting key values in currently running compaction
- getTotalCompactingKVs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 total_compacting_KVs = 10;
the total compacting key values in currently running compaction
- getTotalCompactingKVs() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 total_compacting_KVs = 10;
the total compacting key values in currently running compaction
- getTotalNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 total_number_of_requests = 2;
Total Number of requests from the start of the region server.
- getTotalNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint64 total_number_of_requests = 2;
Total Number of requests from the start of the region server.
- getTotalNumberOfRequests() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint64 total_number_of_requests = 2;
Total Number of requests from the start of the region server.
- getTotalStaticBloomSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 total_static_bloom_size_KB = 14;
The total size of all Bloom filter blocks, not just loaded into the
block cache, in KB.
- getTotalStaticBloomSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 total_static_bloom_size_KB = 14;
The total size of all Bloom filter blocks, not just loaded into the
block cache, in KB.
- getTotalStaticBloomSizeKB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 total_static_bloom_size_KB = 14;
The total size of all Bloom filter blocks, not just loaded into the
block cache, in KB.
- getTotalStaticIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 total_static_index_size_KB = 13;
The total size of all index blocks, not just the root level, in KB.
- getTotalStaticIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 total_static_index_size_KB = 13;
The total size of all index blocks, not just the root level, in KB.
- getTotalStaticIndexSizeKB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 total_static_index_size_KB = 13;
The total size of all index blocks, not just the root level, in KB.
- getTotalUncompressedBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 total_uncompressed_bytes = 4;
- getTotalUncompressedBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 total_uncompressed_bytes = 4;
- getTotalUncompressedBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 total_uncompressed_bytes = 4;
- getTrace(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTrace(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTrace(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo.Builder
-
optional int64 trace_id = 1;
- getTraceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
optional int64 trace_id = 1;
- getTraceId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfoOrBuilder
-
optional int64 trace_id = 1;
- getTraceInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- getTraceInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- getTraceInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- getTraceInfoBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- getTraceInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- getTraceInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- getTraceInfoOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- getTraceList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTraceOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- getTrackScanMetrics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool track_scan_metrics = 9;
- getTrackScanMetrics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional bool track_scan_metrics = 9;
- getTrackScanMetrics() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional bool track_scan_metrics = 9;
- getTransitionInZK() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional bool transition_in_ZK = 3 [default = true];
- getTransitionInZK() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
optional bool transition_in_ZK = 3 [default = true];
- getTransitionInZK() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
optional bool transition_in_ZK = 3 [default = true];
- getTtl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional uint32 ttl = 4;
- getTtl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional uint32 ttl = 4;
- getTtl() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional uint32 ttl = 4;
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional .hbase.pb.Permission.Type type = 1;
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
optional .hbase.pb.Permission.Type type = 1;
- getType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequestOrBuilder
-
optional .hbase.pb.Permission.Type type = 1;
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
required .hbase.pb.Permission.Type type = 1;
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
required .hbase.pb.Permission.Type type = 1;
- getType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
required .hbase.pb.Permission.Type type = 1;
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.Builder
-
required .hbase.pb.RegionSpecifier.RegionSpecifierType type = 1;
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
required .hbase.pb.RegionSpecifier.RegionSpecifierType type = 1;
- getType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifierOrBuilder
-
required .hbase.pb.RegionSpecifier.RegionSpecifierType type = 1;
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional .hbase.pb.SnapshotDescription.Type type = 4 [default = FLUSH];
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional .hbase.pb.SnapshotDescription.Type type = 4 [default = FLUSH];
- getType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional .hbase.pb.SnapshotDescription.Type type = 4 [default = FLUSH];
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
optional .hbase.pb.ThrottleType type = 1;
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
optional .hbase.pb.ThrottleType type = 1;
- getType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequestOrBuilder
-
optional .hbase.pb.ThrottleType type = 1;
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
required .hbase.pb.SnapshotFileInfo.Type type = 1;
- getType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
required .hbase.pb.SnapshotFileInfo.Type type = 1;
- getType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
required .hbase.pb.SnapshotFileInfo.Type type = 1;
- getUncompressedDataIndexSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 uncompressed_data_index_size = 3;
- getUncompressedDataIndexSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 uncompressed_data_index_size = 3;
- getUncompressedDataIndexSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 uncompressed_data_index_size = 3;
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyRequestProto
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyResponseProto
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.NullComparator
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterAllFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyOnlyFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.EmptyMsg
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaUsage
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALTrailer
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState
-
- getUnknownFields() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
- getUpdateInfo(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfo(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfo(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequestOrBuilder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequestOrBuilder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequestOrBuilder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequestOrBuilder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUpdateInfoOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequestOrBuilder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- getUrl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string url = 2;
- getUrl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string url = 2;
- getUrl() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string url = 2;
- getUrlBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string url = 2;
- getUrlBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string url = 2;
- getUrlBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string url = 2;
- getUsedHeapMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint32 used_heap_MB = 3;
the amount of used heap, in MB.
- getUsedHeapMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint32 used_heap_MB = 3;
the amount of used heap, in MB.
- getUsedHeapMB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint32 used_heap_MB = 3;
the amount of used heap, in MB.
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
required bytes user = 1;
- getUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermissionOrBuilder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
required bytes user = 1;
- getUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissionsOrBuilder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string user = 4;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string user = 4;
- getUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string user = 4;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest.Builder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest
-
required bytes user = 1;
- getUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequestOrBuilder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse.Builder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
required bytes user = 1;
- getUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponseOrBuilder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest.Builder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
required bytes user = 1;
- getUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequestOrBuilder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations.Builder
-
required bytes user = 1;
- getUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
required bytes user = 1;
- getUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizationsOrBuilder
-
required bytes user = 1;
- getUserAuths(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuths(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuths(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizationsOrBuilder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizationsOrBuilder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizationsOrBuilder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizationsOrBuilder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserAuthsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizationsOrBuilder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- getUserBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string user = 4;
- getUserBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string user = 4;
- getUserBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string user = 4;
- getUserInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.UserInformation user_info = 1;
- getUserInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional .hbase.pb.UserInformation user_info = 1;
- getUserInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional .hbase.pb.UserInformation user_info = 1;
- getUserInfoBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.UserInformation user_info = 1;
- getUserInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.UserInformation user_info = 1;
- getUserInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional .hbase.pb.UserInformation user_info = 1;
- getUserInfoOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional .hbase.pb.UserInformation user_info = 1;
- getUsername() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
required bytes username = 2;
- getUsername() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
required bytes username = 2;
- getUsername() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
required bytes username = 2;
- getUsername() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
optional string username = 1;
- getUsername() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
optional string username = 1;
- getUsername() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponseOrBuilder
-
optional string username = 1;
- getUsernameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
optional string username = 1;
- getUsernameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
optional string username = 1;
- getUsernameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponseOrBuilder
-
optional string username = 1;
- getUserPermission(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermission(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermission(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponseOrBuilder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequestOrBuilder
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequestOrBuilder
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponseOrBuilder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponseOrBuilder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponseOrBuilder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequestOrBuilder
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequestOrBuilder
-
required .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissionOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponseOrBuilder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- getUserPermissions(RpcController, AccessControlProtos.GetUserPermissionsRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService.BlockingInterface
-
- getUserPermissions(RpcController, AccessControlProtos.GetUserPermissionsRequest, RpcCallback<AccessControlProtos.GetUserPermissionsResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService
-
rpc GetUserPermissions(.hbase.pb.GetUserPermissionsRequest) returns (.hbase.pb.GetUserPermissionsResponse);
- getUserPermissions(RpcController, AccessControlProtos.GetUserPermissionsRequest, RpcCallback<AccessControlProtos.GetUserPermissionsResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService.Interface
-
rpc GetUserPermissions(.hbase.pb.GetUserPermissionsRequest) returns (.hbase.pb.GetUserPermissionsResponse);
- getUserPermissions(RpcController, AccessControlProtos.GetUserPermissionsRequest, RpcCallback<AccessControlProtos.GetUserPermissionsResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService.Stub
-
- getUserPermissions(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissions(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissions(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissionsOrBuilder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissionsOrBuilder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissionsOrBuilder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissionsOrBuilder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getUserPermissionsOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissionsOrBuilder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes value = 6;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional bytes value = 6;
- getValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional bytes value = 6;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional bytes value = 6;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
optional bytes value = 6;
- getValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
optional bytes value = 6;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.NameBytesPair value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
required .hbase.pb.NameBytesPair value = 2;
- getValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponseOrBuilder
-
required .hbase.pb.NameBytesPair value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult.Builder
-
optional .hbase.pb.NameBytesPair value = 1;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult
-
optional .hbase.pb.NameBytesPair value = 1;
- getValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResultOrBuilder
-
optional .hbase.pb.NameBytesPair value = 1;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional bytes value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
optional bytes value = 2;
- getValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValueOrBuilder
-
optional bytes value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable.Builder
-
optional bytes value = 1;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable
-
optional bytes value = 1;
- getValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparableOrBuilder
-
optional bytes value = 1;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
optional bytes value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
optional bytes value = 2;
- getValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPairOrBuilder
-
optional bytes value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
optional int64 value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
optional int64 value = 2;
- getValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64PairOrBuilder
-
optional int64 value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
required string value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
required string value = 2;
- getValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPairOrBuilder
-
required string value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.Builder
-
required bytes value = 2;
- getValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
required bytes value = 2;
- getValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifierOrBuilder
-
required bytes value = 2;
- getValueBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.NameBytesPair value = 2;
- getValueBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult.Builder
-
optional .hbase.pb.NameBytesPair value = 1;
- getValueBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
required string value = 2;
- getValueBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
required string value = 2;
- getValueBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPairOrBuilder
-
required string value = 2;
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Action
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Type
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.CompactionState
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.RegionOpeningState
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Kind
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellType
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Consistency
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.DeleteType
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Durability
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.MutationType
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.ReadType
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.Option
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.State
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.BitwiseOp
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Operator
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Range
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.CompareType
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.RegionSpecifierType
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Type
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState.State
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeUnit
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaScope
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaType
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceViolationPolicy
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleType
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Type
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.FlushAction
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.EventType
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.ScopeType
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState.State
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState.State
-
- getValueDescriptor() - 枚举 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.State
-
- getValueOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.NameBytesPair value = 2;
- getValueOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
required .hbase.pb.NameBytesPair value = 2;
- getValueOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponseOrBuilder
-
required .hbase.pb.NameBytesPair value = 2;
- getValueOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult.Builder
-
optional .hbase.pb.NameBytesPair value = 1;
- getValueOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult
-
optional .hbase.pb.NameBytesPair value = 1;
- getValueOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResultOrBuilder
-
optional .hbase.pb.NameBytesPair value = 1;
- getVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent.Builder
-
required string version = 1;
- getVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent
-
required string version = 1;
- getVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContentOrBuilder
-
required string version = 1;
- getVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional int32 version = 5;
- getVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional int32 version = 5;
- getVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional int32 version = 5;
- getVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string version = 1;
- getVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string version = 1;
- getVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string version = 1;
- getVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
optional int32 version = 1;
- getVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
optional int32 version = 1;
- getVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifestOrBuilder
-
optional int32 version = 1;
- getVersionBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent.Builder
-
required string version = 1;
- getVersionBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent
-
required string version = 1;
- getVersionBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContentOrBuilder
-
required string version = 1;
- getVersionBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string version = 1;
- getVersionBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string version = 1;
- getVersionBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string version = 1;
- getVersionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
optional .hbase.pb.VersionInfo version_info = 2;
- getVersionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
optional .hbase.pb.VersionInfo version_info = 2;
- getVersionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfoOrBuilder
-
optional .hbase.pb.VersionInfo version_info = 2;
- getVersionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.VersionInfo version_info = 5;
- getVersionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional .hbase.pb.VersionInfo version_info = 5;
- getVersionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional .hbase.pb.VersionInfo version_info = 5;
- getVersionInfoBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
optional .hbase.pb.VersionInfo version_info = 2;
- getVersionInfoBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.VersionInfo version_info = 5;
- getVersionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
optional .hbase.pb.VersionInfo version_info = 2;
- getVersionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
optional .hbase.pb.VersionInfo version_info = 2;
- getVersionInfoOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfoOrBuilder
-
optional .hbase.pb.VersionInfo version_info = 2;
- getVersionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.VersionInfo version_info = 5;
- getVersionInfoOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional .hbase.pb.VersionInfo version_info = 5;
- getVersionInfoOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional .hbase.pb.VersionInfo version_info = 5;
- getVersionMajor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
optional uint32 version_major = 7;
- getVersionMajor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
optional uint32 version_major = 7;
- getVersionMajor() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
optional uint32 version_major = 7;
- getVersionMinor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
optional uint32 version_minor = 8;
- getVersionMinor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
optional uint32 version_minor = 8;
- getVersionMinor() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
optional uint32 version_minor = 8;
- getVersionOfClosingNode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional uint32 version_of_closing_node = 2;
- getVersionOfClosingNode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
optional uint32 version_of_closing_node = 2;
- getVersionOfClosingNode() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
optional uint32 version_of_closing_node = 2;
- getVersionOfOfflineNode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
optional uint32 version_of_offline_node = 2;
- getVersionOfOfflineNode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
optional uint32 version_of_offline_node = 2;
- getVersionOfOfflineNode() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfoOrBuilder
-
optional uint32 version_of_offline_node = 2;
- getViolationPolicy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 2;
The action to take when the quota is violated
- getViolationPolicy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 2;
The action to take when the quota is violated
- getViolationPolicy() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaOrBuilder
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 2;
The action to take when the quota is violated
- getViolationPolicy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus.Builder
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 1;
- getViolationPolicy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 1;
- getViolationPolicy() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatusOrBuilder
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 1;
- getVisLabel(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabel(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabel(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequestOrBuilder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequestOrBuilder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequestOrBuilder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelOrBuilder(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelOrBuilder(int) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequestOrBuilder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelOrBuilderList() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getVisLabelOrBuilderList() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequestOrBuilder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- getWalName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string wal_name = 5;
- getWalName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
optional string wal_name = 5;
- getWalName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
optional string wal_name = 5;
- getWalNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string wal_name = 5;
- getWalNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
optional string wal_name = 5;
- getWalNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
optional string wal_name = 5;
- getWalServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string wal_server = 4;
- getWalServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
optional string wal_server = 4;
- getWalServer() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
optional string wal_server = 4;
- getWalServerBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string wal_server = 4;
- getWalServerBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
optional string wal_server = 4;
- getWalServerBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
optional string wal_server = 4;
- getWebuiPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
optional uint32 webui_port = 2;
- getWebuiPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
optional uint32 webui_port = 2;
- getWebuiPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfoOrBuilder
-
optional uint32 webui_port = 2;
- getWriteFlushWalMarker() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
optional bool write_flush_wal_marker = 3;
whether to write a marker to WAL even if not flushed
- getWriteFlushWalMarker() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
optional bool write_flush_wal_marker = 3;
whether to write a marker to WAL even if not flushed
- getWriteFlushWalMarker() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequestOrBuilder
-
optional bool write_flush_wal_marker = 3;
whether to write a marker to WAL even if not flushed
- getWriteNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_num = 3;
- getWriteNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota write_num = 3;
- getWriteNum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota write_num = 3;
- getWriteNumBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_num = 3;
- getWriteNumOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_num = 3;
- getWriteNumOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota write_num = 3;
- getWriteNumOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota write_num = 3;
- getWriterClsName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional string writer_cls_name = 4;
- getWriterClsName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional string writer_cls_name = 4;
- getWriterClsName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional string writer_cls_name = 4;
- getWriterClsNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional string writer_cls_name = 4;
- getWriterClsNameBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional string writer_cls_name = 4;
- getWriterClsNameBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional string writer_cls_name = 4;
- getWriteRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 write_requests_count = 9;
the current total write requests made to region
- getWriteRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 write_requests_count = 9;
the current total write requests made to region
- getWriteRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 write_requests_count = 9;
the current total write requests made to region
- getWriteSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_size = 4;
- getWriteSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota write_size = 4;
- getWriteSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota write_size = 4;
- getWriteSizeBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_size = 4;
- getWriteSizeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_size = 4;
- getWriteSizeOrBuilder() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota write_size = 4;
- getWriteSizeOrBuilder() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota write_size = 4;
- getWriteTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required uint64 write_time = 4;
- getWriteTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
required uint64 write_time = 4;
- getWriteTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
required uint64 write_time = 4;
- getWroteFlushWalMarker() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
optional bool wrote_flush_wal_marker = 3;
- getWroteFlushWalMarker() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
optional bool wrote_flush_wal_marker = 3;
- getWroteFlushWalMarker() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponseOrBuilder
-
optional bool wrote_flush_wal_marker = 3;
- GLOBAL_PERMISSION_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
- Global_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Type
-
Global = 1;
- grant(RpcController, AccessControlProtos.GrantRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService.BlockingInterface
-
- grant(RpcController, AccessControlProtos.GrantRequest, RpcCallback<AccessControlProtos.GrantResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService
-
rpc Grant(.hbase.pb.GrantRequest) returns (.hbase.pb.GrantResponse);
- grant(RpcController, AccessControlProtos.GrantRequest, RpcCallback<AccessControlProtos.GrantResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService.Interface
-
rpc Grant(.hbase.pb.GrantRequest) returns (.hbase.pb.GrantResponse);
- grant(RpcController, AccessControlProtos.GrantRequest, RpcCallback<AccessControlProtos.GrantResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.AccessControlService.Stub
-
- GREATER_OR_EQUAL_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.CompareType
-
GREATER_OR_EQUAL = 4;
- GREATER_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.CompareType
-
GREATER = 5;
- HAS_COMPRESSION_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
- HAS_TAG_COMPRESSION_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
- hasAction() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
required .hbase.pb.FlushDescriptor.FlushAction action = 1;
- hasAction() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
required .hbase.pb.FlushDescriptor.FlushAction action = 1;
- hasAction() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
required .hbase.pb.FlushDescriptor.FlushAction action = 1;
- hasAddr() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto.Builder
-
required string addr = 1;
- hasAddr() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto
-
required string addr = 1;
- hasAddr() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProtoOrBuilder
-
required string addr = 1;
- hasAgeOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink.Builder
-
required uint64 ageOfLastAppliedOp = 1;
- hasAgeOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
required uint64 ageOfLastAppliedOp = 1;
- hasAgeOfLastAppliedOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSinkOrBuilder
-
required uint64 ageOfLastAppliedOp = 1;
- hasAgeOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint64 ageOfLastShippedOp = 2;
- hasAgeOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required uint64 ageOfLastShippedOp = 2;
- hasAgeOfLastShippedOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required uint64 ageOfLastShippedOp = 2;
- hasAlgorithm() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required string algorithm = 1;
- hasAlgorithm() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
required string algorithm = 1;
- hasAlgorithm() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
required string algorithm = 1;
- hasAllowPartialResults() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool allow_partial_results = 18;
- hasAllowPartialResults() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool allow_partial_results = 18;
- hasAllowPartialResults() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool allow_partial_results = 18;
- hasAssignSeqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional bool assign_seq_num = 3;
- hasAssignSeqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
optional bool assign_seq_num = 3;
- hasAssignSeqNum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
optional bool assign_seq_num = 3;
- hasAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
optional int32 associated_cell_count = 3;
If Cell data is carried alongside in a cellblock, this is count of Cells in the cellblock.
- hasAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
optional int32 associated_cell_count = 3;
If Cell data is carried alongside in a cellblock, this is count of Cells in the cellblock.
- hasAssociatedCellCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntryOrBuilder
-
optional int32 associated_cell_count = 3;
If Cell data is carried alongside in a cellblock, this is count of Cells in the cellblock.
- hasAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional int32 associated_cell_count = 8;
The below count is set when the associated cells are NOT
part of this protobuf message; they are passed alongside
and then this Message is a placeholder with metadata.
- hasAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional int32 associated_cell_count = 8;
The below count is set when the associated cells are NOT
part of this protobuf message; they are passed alongside
and then this Message is a placeholder with metadata.
- hasAssociatedCellCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional int32 associated_cell_count = 8;
The below count is set when the associated cells are NOT
part of this protobuf message; they are passed alongside
and then this Message is a placeholder with metadata.
- hasAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional int32 associated_cell_count = 2;
The below count is set when the associated cells are
not part of this protobuf message; they are passed alongside
and then this Message is just a placeholder with metadata.
- hasAssociatedCellCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
optional int32 associated_cell_count = 2;
The below count is set when the associated cells are
not part of this protobuf message; they are passed alongside
and then this Message is just a placeholder with metadata.
- hasAssociatedCellCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
optional int32 associated_cell_count = 2;
The below count is set when the associated cells are
not part of this protobuf message; they are passed alongside
and then this Message is just a placeholder with metadata.
- hasAtomic() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
optional bool atomic = 2;
When set, run mutations as atomic unit.
- hasAtomic() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
optional bool atomic = 2;
When set, run mutations as atomic unit.
- hasAtomic() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionOrBuilder
-
optional bool atomic = 2;
When set, run mutations as atomic unit.
- hasAuthMethod() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
optional string auth_method = 2;
- hasAuthMethod() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
optional string auth_method = 2;
- hasAuthMethod() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponseOrBuilder
-
optional string auth_method = 2;
- hasBalancerOn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional bool balancer_on = 9;
- hasBalancerOn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional bool balancer_on = 9;
- hasBalancerOn() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional bool balancer_on = 9;
- hasBalancerOn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState.Builder
-
optional bool balancer_on = 1;
- hasBalancerOn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState
-
optional bool balancer_on = 1;
- hasBalancerOn() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerStateOrBuilder
-
optional bool balancer_on = 1;
- hasBandwidth() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
optional int64 bandwidth = 7;
- hasBandwidth() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
optional int64 bandwidth = 7;
- hasBandwidth() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
optional int64 bandwidth = 7;
- hasBatchSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 batch_size = 9;
- hasBatchSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint32 batch_size = 9;
- hasBatchSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint32 batch_size = 9;
- hasBigdecimalMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg.Builder
-
required bytes bigdecimal_msg = 1;
- hasBigdecimalMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg
-
required bytes bigdecimal_msg = 1;
- hasBigdecimalMsg() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsgOrBuilder
-
required bytes bigdecimal_msg = 1;
- hasBitwiseOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
required .hbase.pb.BitComparator.BitwiseOp bitwise_op = 2;
- hasBitwiseOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
required .hbase.pb.BitComparator.BitwiseOp bitwise_op = 2;
- hasBitwiseOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparatorOrBuilder
-
required .hbase.pb.BitComparator.BitwiseOp bitwise_op = 2;
- hasBulkloadSeqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required int64 bulkload_seq_num = 4;
- hasBulkloadSeqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
required int64 bulkload_seq_num = 4;
- hasBulkloadSeqNum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
required int64 bulkload_seq_num = 4;
- hasBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional string bulk_token = 5;
- hasBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
optional string bulk_token = 5;
- hasBulkToken() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
optional string bulk_token = 5;
- hasBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
required string bulk_token = 1;
- hasBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
required string bulk_token = 1;
- hasBulkToken() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequestOrBuilder
-
required string bulk_token = 1;
- hasBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse.Builder
-
required string bulk_token = 1;
- hasBulkToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse
-
required string bulk_token = 1;
- hasBulkToken() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponseOrBuilder
-
required string bulk_token = 1;
- hasBypassGlobals() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional bool bypass_globals = 1 [default = false];
- hasBypassGlobals() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
optional bool bypass_globals = 1 [default = false];
- hasBypassGlobals() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotasOrBuilder
-
optional bool bypass_globals = 1 [default = false];
- hasCacheBlocks() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool cache_blocks = 7 [default = true];
- hasCacheBlocks() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional bool cache_blocks = 7 [default = true];
- hasCacheBlocks() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional bool cache_blocks = 7 [default = true];
- hasCacheBlocks() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool cache_blocks = 8 [default = true];
- hasCacheBlocks() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool cache_blocks = 8 [default = true];
- hasCacheBlocks() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool cache_blocks = 8 [default = true];
- hasCaching() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 caching = 17;
- hasCaching() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint32 caching = 17;
- hasCaching() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint32 caching = 17;
- hasCall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- hasCall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- hasCall() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequestOrBuilder
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- hasCallId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional uint32 call_id = 1;
Monotonically increasing call_id to keep track of RPC requests and their response
- hasCallId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional uint32 call_id = 1;
Monotonically increasing call_id to keep track of RPC requests and their response
- hasCallId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional uint32 call_id = 1;
Monotonically increasing call_id to keep track of RPC requests and their response
- hasCallId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional uint32 call_id = 1;
- hasCallId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
optional uint32 call_id = 1;
- hasCallId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeaderOrBuilder
-
optional uint32 call_id = 1;
- hasCanHint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter.Builder
-
optional bool can_hint = 2;
- hasCanHint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
optional bool can_hint = 2;
- hasCanHint() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilterOrBuilder
-
optional bool can_hint = 2;
- hasCellBlockCodecClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- hasCellBlockCodecClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- hasCellBlockCodecClass() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- hasCellBlockCompressorClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- hasCellBlockCompressorClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- hasCellBlockCompressorClass() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- hasCellBlockMeta() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- hasCellBlockMeta() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- hasCellBlockMeta() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- hasCellBlockMeta() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- hasCellBlockMeta() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- hasCellBlockMeta() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeaderOrBuilder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- hasCellCodecClsName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional string cell_codec_cls_name = 5;
- hasCellCodecClsName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional string cell_codec_cls_name = 5;
- hasCellCodecClsName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional string cell_codec_cls_name = 5;
- hasCellType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional .hbase.pb.CellType cell_type = 5;
- hasCellType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional .hbase.pb.CellType cell_type = 5;
- hasCellType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional .hbase.pb.CellType cell_type = 5;
- hasChance() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter.Builder
-
required float chance = 1;
- hasChance() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter
-
required float chance = 1;
- hasChance() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilterOrBuilder
-
required float chance = 1;
- hasCharset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required string charset = 3;
- hasCharset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
required string charset = 3;
- hasCharset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
required string charset = 3;
- hasClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional string class_name = 1;
- hasClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
optional string class_name = 1;
- hasClassName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
optional string class_name = 1;
- hasClientHandlesHeartbeats() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool client_handles_heartbeats = 8;
- hasClientHandlesHeartbeats() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional bool client_handles_heartbeats = 8;
- hasClientHandlesHeartbeats() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional bool client_handles_heartbeats = 8;
- hasClientHandlesPartials() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool client_handles_partials = 7;
- hasClientHandlesPartials() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional bool client_handles_partials = 7;
- hasClientHandlesPartials() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional bool client_handles_partials = 7;
- hasClosed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse.Builder
-
required bool closed = 1;
- hasClosed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse
-
required bool closed = 1;
- hasClosed() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponseOrBuilder
-
required bool closed = 1;
- hasCloseScanner() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool close_scanner = 5;
- hasCloseScanner() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional bool close_scanner = 5;
- hasCloseScanner() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional bool close_scanner = 5;
- hasClosestRowBefore() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool closest_row_before = 11 [default = false];
If the row to get doesn't exist, return the
closest row before.
- hasClosestRowBefore() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional bool closest_row_before = 11 [default = false];
If the row to get doesn't exist, return the
closest row before.
- hasClosestRowBefore() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional bool closest_row_before = 11 [default = false];
If the row to get doesn't exist, return the
closest row before.
- hasClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId.Builder
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- hasClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- hasClusterId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterIdOrBuilder
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- hasClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ClusterId cluster_id = 5;
- hasClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional .hbase.pb.ClusterId cluster_id = 5;
- hasClusterId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional .hbase.pb.ClusterId cluster_id = 5;
- hasClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
已过时。
- hasClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
已过时。
- hasClusterId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
已过时。
- hasClusterkey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- hasClusterkey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- hasClusterkey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- hasColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
optional bytes column_family = 2;
- hasColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
optional bytes column_family = 2;
- hasColumnFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilterOrBuilder
-
optional bytes column_family = 2;
- hasColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bytes column_family = 1;
- hasColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
optional bytes column_family = 1;
- hasColumnFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
optional bytes column_family = 1;
- hasColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
required bytes column_family = 1;
- hasColumnFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
required bytes column_family = 1;
- hasColumnFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRangeOrBuilder
-
required bytes column_family = 1;
- hasColumnOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
optional bytes column_offset = 3;
- hasColumnOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
optional bytes column_offset = 3;
- hasColumnOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilterOrBuilder
-
optional bytes column_offset = 3;
- hasColumnQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
optional bytes column_qualifier = 3;
- hasColumnQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
optional bytes column_qualifier = 3;
- hasColumnQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilterOrBuilder
-
optional bytes column_qualifier = 3;
- hasColumnQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bytes column_qualifier = 2;
- hasColumnQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
optional bytes column_qualifier = 2;
- hasColumnQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
optional bytes column_qualifier = 2;
- hasCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
optional int32 compactionPressure = 3 [default = 0];
Compaction pressure.
- hasCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
optional int32 compactionPressure = 3 [default = 0];
Compaction pressure.
- hasCompactionPressure() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStatsOrBuilder
-
optional int32 compactionPressure = 3 [default = 0];
Compaction pressure.
- hasCompactionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
optional bool compaction_state = 2;
- hasCompactionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
optional bool compaction_state = 2;
- hasCompactionState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequestOrBuilder
-
optional bool compaction_state = 2;
- hasCompactionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
optional .hbase.pb.GetRegionInfoResponse.CompactionState compaction_state = 2;
optional bool DEPRECATED_isRecovering = 3;
- hasCompactionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
optional .hbase.pb.GetRegionInfoResponse.CompactionState compaction_state = 2;
optional bool DEPRECATED_isRecovering = 3;
- hasCompactionState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponseOrBuilder
-
optional .hbase.pb.GetRegionInfoResponse.CompactionState compaction_state = 2;
optional bool DEPRECATED_isRecovering = 3;
- hasComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparatorOrBuilder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- hasComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required .hbase.pb.Comparator comparator = 5;
- hasComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required .hbase.pb.Comparator comparator = 5;
- hasComparator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required .hbase.pb.Comparator comparator = 5;
- hasComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- hasComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
required .hbase.pb.Comparator comparator = 4;
- hasComparator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilterOrBuilder
-
required .hbase.pb.Comparator comparator = 4;
- hasComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
optional .hbase.pb.Comparator comparator = 2;
- hasComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
optional .hbase.pb.Comparator comparator = 2;
- hasComparator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilterOrBuilder
-
optional .hbase.pb.Comparator comparator = 2;
- hasComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- hasComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
required .hbase.pb.Comparator comparator = 4;
- hasComparator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
required .hbase.pb.Comparator comparator = 4;
- hasComparatorClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional string comparator_class_name = 11;
- hasComparatorClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional string comparator_class_name = 11;
- hasComparatorClassName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional string comparator_class_name = 11;
- hasCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilterOrBuilder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- hasCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required .hbase.pb.CompareType compare_op = 3;
- hasCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
required .hbase.pb.CompareType compare_op = 3;
- hasCompareOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilterOrBuilder
-
required .hbase.pb.CompareType compare_op = 3;
- hasCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
required .hbase.pb.CompareType compare_op = 1;
- hasCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
required .hbase.pb.CompareType compare_op = 1;
- hasCompareOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilterOrBuilder
-
required .hbase.pb.CompareType compare_op = 1;
- hasCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
required .hbase.pb.CompareType compare_op = 3;
- hasCompareOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
required .hbase.pb.CompareType compare_op = 3;
- hasCompareOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
required .hbase.pb.CompareType compare_op = 3;
- hasCompareType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required .hbase.pb.CompareType compare_type = 4;
- hasCompareType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required .hbase.pb.CompareType compare_type = 4;
- hasCompareType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required .hbase.pb.CompareType compare_type = 4;
- hasCompleteSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 complete_sequence_id = 15;
the most recent sequence Id from cache flush
- hasCompleteSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 complete_sequence_id = 15;
the most recent sequence Id from cache flush
- hasCompleteSequenceId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 complete_sequence_id = 15;
the most recent sequence Id from cache flush
- hasCompressionCodec() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 compression_codec = 12;
- hasCompressionCodec() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint32 compression_codec = 12;
- hasCompressionCodec() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint32 compression_codec = 12;
- hasCondition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- hasCondition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
optional .hbase.pb.Condition condition = 3;
- hasCondition() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequestOrBuilder
-
optional .hbase.pb.Condition condition = 3;
- hasCondition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- hasCondition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
optional .hbase.pb.Condition condition = 3;
- hasCondition() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
optional .hbase.pb.Condition condition = 3;
- hasConsistency() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.Consistency consistency = 12 [default = STRONG];
- hasConsistency() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional .hbase.pb.Consistency consistency = 12 [default = STRONG];
- hasConsistency() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional .hbase.pb.Consistency consistency = 12 [default = STRONG];
- hasConsistency() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Consistency consistency = 16 [default = STRONG];
- hasConsistency() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional .hbase.pb.Consistency consistency = 16 [default = STRONG];
- hasConsistency() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional .hbase.pb.Consistency consistency = 16 [default = STRONG];
- hasCopyFile() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional bool copy_file = 6 [default = false];
- hasCopyFile() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
optional bool copy_file = 6 [default = false];
- hasCopyFile() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
optional bool copy_file = 6 [default = false];
- hasCount() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse.Builder
-
required int32 count = 1;
- hasCount() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse
-
required int32 count = 1;
- hasCount() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponseOrBuilder
-
required int32 count = 1;
- hasCount() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse.Builder
-
required int32 count = 1;
- hasCount() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse
-
required int32 count = 1;
- hasCount() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponseOrBuilder
-
required int32 count = 1;
- hasCreationTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
optional int64 creation_time = 3 [default = 0];
- hasCreationTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
optional int64 creation_time = 3 [default = 0];
- hasCreationTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
optional int64 creation_time = 3 [default = 0];
- hasCreationTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional int64 creation_time = 3 [default = 0];
- hasCreationTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional int64 creation_time = 3 [default = 0];
- hasCreationTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional int64 creation_time = 3 [default = 0];
- hasCurrentCompactedKVs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 current_compacted_KVs = 11;
the completed count of key values in currently running compaction
- hasCurrentCompactedKVs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 current_compacted_KVs = 11;
the completed count of key values in currently running compaction
- hasCurrentCompactedKVs() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 current_compacted_KVs = 11;
the completed count of key values in currently running compaction
- hasCursor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- hasCursor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- hasCursor() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- hasData() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required bytes data = 3;
- hasData() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
required bytes data = 3;
- hasData() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
required bytes data = 3;
- hasDataIndexCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 data_index_count = 5;
- hasDataIndexCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint32 data_index_count = 5;
- hasDataIndexCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint32 data_index_count = 5;
- hasDataLocality() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional float data_locality = 16;
The current data locality for region in the regionserver
- hasDataLocality() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional float data_locality = 16;
The current data locality for region in the regionserver
- hasDataLocality() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional float data_locality = 16;
The current data locality for region in the regionserver
- hasDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string date = 5;
- hasDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string date = 5;
- hasDate() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string date = 5;
- hasDeclaringClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string declaring_class = 1;
- hasDeclaringClass() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional string declaring_class = 1;
- hasDeclaringClass() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional string declaring_class = 1;
- hasDeleteType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional .hbase.pb.MutationProto.DeleteType delete_type = 4;
- hasDeleteType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
optional .hbase.pb.MutationProto.DeleteType delete_type = 4;
- hasDeleteType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValueOrBuilder
-
optional .hbase.pb.MutationProto.DeleteType delete_type = 4;
- hasDestinationServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional .hbase.pb.ServerName destination_server = 4;
- hasDestinationServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
optional .hbase.pb.ServerName destination_server = 4;
- hasDestinationServer() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
optional .hbase.pb.ServerName destination_server = 4;
- hasDiff() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest.Builder
-
required int32 diff = 1;
- hasDiff() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest
-
required int32 diff = 1;
- hasDiff() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequestOrBuilder
-
required int32 diff = 1;
- hasDoNotRetry() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional bool do_not_retry = 5;
Set if we are NOT to retry on receipt of this exception
- hasDoNotRetry() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional bool do_not_retry = 5;
Set if we are NOT to retry on receipt of this exception
- hasDoNotRetry() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional bool do_not_retry = 5;
Set if we are NOT to retry on receipt of this exception
- hasDoubleMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg.Builder
-
required double double_msg = 1;
- hasDoubleMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg
-
required double double_msg = 1;
- hasDoubleMsg() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsgOrBuilder
-
required double double_msg = 1;
- hasDropDependentColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
optional bool drop_dependent_column = 4;
- hasDropDependentColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
optional bool drop_dependent_column = 4;
- hasDropDependentColumn() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilterOrBuilder
-
optional bool drop_dependent_column = 4;
- hasDurability() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.MutationProto.Durability durability = 6 [default = USE_DEFAULT];
- hasDurability() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional .hbase.pb.MutationProto.Durability durability = 6 [default = USE_DEFAULT];
- hasDurability() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional .hbase.pb.MutationProto.Durability durability = 6 [default = USE_DEFAULT];
- hasEffectiveUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
required string effective_user = 1;
- hasEffectiveUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
required string effective_user = 1;
- hasEffectiveUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformationOrBuilder
-
required string effective_user = 1;
- hasEnabled() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState.Builder
-
optional bool enabled = 1;
- hasEnabled() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState
-
optional bool enabled = 1;
- hasEnabled() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchStateOrBuilder
-
optional bool enabled = 1;
- hasEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required bytes encoded_region_name = 2;
- hasEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
required bytes encoded_region_name = 2;
- hasEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
required bytes encoded_region_name = 2;
- hasEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required bytes encoded_region_name = 2;
- hasEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
required bytes encoded_region_name = 2;
- hasEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
required bytes encoded_region_name = 2;
- hasEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
required bytes encoded_region_name = 3;
- hasEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
required bytes encoded_region_name = 3;
- hasEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
required bytes encoded_region_name = 3;
- hasEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
required bytes encoded_region_name = 3;
- hasEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
required bytes encoded_region_name = 3;
- hasEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
required bytes encoded_region_name = 3;
- hasEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required bytes encoded_region_name = 1;
- hasEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
required bytes encoded_region_name = 1;
- hasEncodedRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
required bytes encoded_region_name = 1;
- hasEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional bytes encryption_key = 13;
- hasEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional bytes encryption_key = 13;
- hasEncryptionKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional bytes encryption_key = 13;
- hasEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional bytes encryption_key = 2;
- hasEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional bytes encryption_key = 2;
- hasEncryptionKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional bytes encryption_key = 2;
- hasEndKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bytes end_key = 4;
- hasEndKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
optional bytes end_key = 4;
- hasEndKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
optional bytes end_key = 4;
- hasEngine() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
optional string engine = 4;
- hasEngine() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
optional string engine = 4;
- hasEngine() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
optional string engine = 4;
- hasEntryCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 entry_count = 7;
- hasEntryCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 entry_count = 7;
- hasEntryCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 entry_count = 7;
- hasErrorInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional bytes error_info = 3;
- hasErrorInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
optional bytes error_info = 3;
- hasErrorInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
optional bytes error_info = 3;
- hasEventType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
required .hbase.pb.RegionEventDescriptor.EventType event_type = 1;
- hasEventType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
required .hbase.pb.RegionEventDescriptor.EventType event_type = 1;
- hasEventType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
required .hbase.pb.RegionEventDescriptor.EventType event_type = 1;
- hasException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- hasException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- hasException() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResultOrBuilder
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- hasException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.NameBytesPair exception = 3;
- hasException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional .hbase.pb.NameBytesPair exception = 3;
- hasException() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional .hbase.pb.NameBytesPair exception = 3;
- hasException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- hasException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- hasException() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeaderOrBuilder
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- hasExceptionClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- hasExceptionClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- hasExceptionClassName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- hasExistenceOnly() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool existence_only = 10 [default = false];
The result isn't asked for, just check for
the existence.
- hasExistenceOnly() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional bool existence_only = 10 [default = false];
The result isn't asked for, just check for
the existence.
- hasExistenceOnly() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional bool existence_only = 10 [default = false];
The result isn't asked for, just check for
the existence.
- hasExists() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional bool exists = 3;
used for Get to check existence only.
- hasExists() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
optional bool exists = 3;
used for Get to check existence only.
- hasExists() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
optional bool exists = 3;
used for Get to check existence only.
- hasExpirationDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
required int64 expiration_date = 2;
- hasExpirationDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
required int64 expiration_date = 2;
- hasExpirationDate() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKeyOrBuilder
-
required int64 expiration_date = 2;
- hasExpirationDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
optional int64 expiration_date = 5;
- hasExpirationDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
optional int64 expiration_date = 5;
- hasExpirationDate() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
optional int64 expiration_date = 5;
- hasExpression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility.Builder
-
required string expression = 1;
- hasExpression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility
-
required string expression = 1;
- hasExpression() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibilityOrBuilder
-
required string expression = 1;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional bytes family = 2;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
optional bytes family = 2;
- hasFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermissionOrBuilder
-
optional bytes family = 2;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
optional bytes family = 3;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
optional bytes family = 3;
- hasFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequestOrBuilder
-
optional bytes family = 3;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes family = 2;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional bytes family = 2;
- hasFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional bytes family = 2;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
required bytes family = 2;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
required bytes family = 2;
- hasFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
required bytes family = 2;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
required bytes family = 1;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
required bytes family = 1;
- hasFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPathOrBuilder
-
required bytes family = 1;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column.Builder
-
required bytes family = 1;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
required bytes family = 1;
- hasFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ColumnOrBuilder
-
required bytes family = 1;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required bytes family = 2;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required bytes family = 2;
- hasFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required bytes family = 2;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
required bytes family = 1;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
required bytes family = 1;
- hasFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValueOrBuilder
-
required bytes family = 1;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required bytes family = 1;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
required bytes family = 1;
- hasFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilterOrBuilder
-
required bytes family = 1;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope.Builder
-
required bytes family = 1;
- hasFamily() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
required bytes family = 1;
- hasFamily() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScopeOrBuilder
-
required bytes family = 1;
- hasFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId.Builder
-
required bytes family_name = 1;
- hasFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
required bytes family_name = 1;
- hasFamilyName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceIdOrBuilder
-
required bytes family_name = 1;
- hasFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
required bytes family_name = 1;
- hasFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
required bytes family_name = 1;
- hasFamilyName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFilesOrBuilder
-
required bytes family_name = 1;
- hasFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required bytes family_name = 3;
- hasFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
required bytes family_name = 3;
- hasFamilyName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
required bytes family_name = 3;
- hasFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
required bytes family_name = 1;
- hasFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
required bytes family_name = 1;
- hasFamilyName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptorOrBuilder
-
required bytes family_name = 1;
- hasFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
required bytes family_name = 1;
- hasFamilyName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
required bytes family_name = 1;
- hasFamilyName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
required bytes family_name = 1;
- hasFileInfoOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 file_info_offset = 1;
- hasFileInfoOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 file_info_offset = 1;
- hasFileInfoOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 file_info_offset = 1;
- hasFileName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string file_name = 3;
- hasFileName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional string file_name = 3;
- hasFileName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional string file_name = 3;
- hasFileSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
optional uint64 file_size = 3;
TODO: Add checksums or other fields to verify the file
- hasFileSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
optional uint64 file_size = 3;
TODO: Add checksums or other fields to verify the file
- hasFileSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFileOrBuilder
-
optional uint64 file_size = 3;
TODO: Add checksums or other fields to verify the file
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.Filter filter = 4;
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional .hbase.pb.Filter filter = 4;
- hasFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional .hbase.pb.Filter filter = 4;
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Filter filter = 5;
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional .hbase.pb.Filter filter = 5;
- hasFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional .hbase.pb.Filter filter = 5;
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper.Builder
-
required .hbase.pb.Filter filter = 1;
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper
-
required .hbase.pb.Filter filter = 1;
- hasFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapperOrBuilder
-
required .hbase.pb.Filter filter = 1;
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter
-
required .hbase.pb.Filter filter = 1;
- hasFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilterOrBuilder
-
required .hbase.pb.Filter filter = 1;
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- hasFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter
-
required .hbase.pb.Filter filter = 1;
- hasFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilterOrBuilder
-
required .hbase.pb.Filter filter = 1;
- hasFilteredReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 filtered_read_requests_count = 19;
the current total filtered read requests made to region
- hasFilteredReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 filtered_read_requests_count = 19;
the current total filtered read requests made to region
- hasFilteredReadRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 filtered_read_requests_count = 19;
the current total filtered read requests made to region
- hasFilterIfMissing() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bool filter_if_missing = 5;
- hasFilterIfMissing() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
optional bool filter_if_missing = 5;
- hasFilterIfMissing() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
optional bool filter_if_missing = 5;
- hasFirst() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair.Builder
-
required bytes first = 1;
- hasFirst() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
required bytes first = 1;
- hasFirst() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPairOrBuilder
-
required bytes first = 1;
- hasFirstDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 first_data_block_offset = 9;
- hasFirstDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 first_data_block_offset = 9;
- hasFirstDataBlockOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 first_data_block_offset = 9;
- hasFlushed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
optional bool flushed = 2;
- hasFlushed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
optional bool flushed = 2;
- hasFlushed() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponseOrBuilder
-
optional bool flushed = 2;
- hasFlushSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
optional uint64 flush_sequence_number = 4;
- hasFlushSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
optional uint64 flush_sequence_number = 4;
- hasFlushSequenceNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
optional uint64 flush_sequence_number = 4;
- hasFollowingKvCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint32 following_kv_count = 7;
- hasFollowingKvCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
optional uint32 following_kv_count = 7;
- hasFollowingKvCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
optional uint32 following_kv_count = 7;
- hasForcible() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
optional bool forcible = 3 [default = false];
- hasForcible() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
optional bool forcible = 3 [default = false];
- hasForcible() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequestOrBuilder
-
optional bool forcible = 3 [default = false];
- hasFrom() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange.Builder
-
optional uint64 from = 1;
- hasFrom() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
optional uint64 from = 1;
- hasFrom() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRangeOrBuilder
-
optional uint64 from = 1;
- hasFsToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional .hbase.pb.DelegationToken fs_token = 4;
- hasFsToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
optional .hbase.pb.DelegationToken fs_token = 4;
- hasFsToken() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
optional .hbase.pb.DelegationToken fs_token = 4;
- hasGenericException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- hasGenericException() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- hasGenericException() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessageOrBuilder
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- hasGet() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.Get get = 3;
- hasGet() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional .hbase.pb.Get get = 3;
- hasGet() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional .hbase.pb.Get get = 3;
- hasGet() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.Get get = 2;
- hasGet() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
required .hbase.pb.Get get = 2;
- hasGet() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequestOrBuilder
-
required .hbase.pb.Get get = 2;
- hasGlobalPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- hasGlobalPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- hasGlobalPermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- HASH_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
- hasHasCompression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional bool has_compression = 1;
- hasHasCompression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional bool has_compression = 1;
- hasHasCompression() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional bool has_compression = 1;
- hasHash() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
optional bytes hash = 5;
- hasHash() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
optional bytes hash = 5;
- hasHash() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
optional bytes hash = 5;
- hasHasTagCompression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional bool has_tag_compression = 3;
- hasHasTagCompression() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional bool has_tag_compression = 3;
- hasHasTagCompression() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional bool has_tag_compression = 3;
- hasHbaseVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- hasHbaseVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- hasHbaseVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- hashCode() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.NoopResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyRequestProto
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EmptyResponseProto
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateConfigurationResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.NullComparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterAllFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyOnlyFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.EmptyMsg
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MultiRowMutationProcessorResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaUsage
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALTrailer
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
- hasHeapOccupancy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
optional int32 heapOccupancy = 2 [default = 0];
Percent JVM heap occupancy.
- hasHeapOccupancy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
optional int32 heapOccupancy = 2 [default = 0];
Percent JVM heap occupancy.
- hasHeapOccupancy() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStatsOrBuilder
-
optional int32 heapOccupancy = 2 [default = 0];
Percent JVM heap occupancy.
- hasHeartbeatMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool heartbeat_message = 9;
This field is filled in if the server is sending back a heartbeat message.
- hasHeartbeatMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional bool heartbeat_message = 9;
This field is filled in if the server is sending back a heartbeat message.
- hasHeartbeatMessage() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional bool heartbeat_message = 9;
This field is filled in if the server is sending back a heartbeat message.
- hasHfile() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string hfile = 3;
- hasHfile() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
optional string hfile = 3;
- hasHfile() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
optional string hfile = 3;
- hasHostName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
required string host_name = 1;
- hasHostName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
required string host_name = 1;
- hasHostName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerNameOrBuilder
-
required string host_name = 1;
- hasHostname() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string hostname = 3;
Optional hostname.
- hasHostname() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional string hostname = 3;
Optional hostname.
- hasHostname() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional string hostname = 3;
Optional hostname.
- hasId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
required int32 id = 1;
- hasId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
required int32 id = 1;
- hasId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKeyOrBuilder
-
required int32 id = 1;
- hasIdentifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
optional bytes identifier = 1;
the TokenIdentifier in serialized form
Note: we can't use the protobuf directly because the Hadoop Token class
only stores the serialized bytes
- hasIdentifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
optional bytes identifier = 1;
the TokenIdentifier in serialized form
Note: we can't use the protobuf directly because the Hadoop Token class
only stores the serialized bytes
- hasIdentifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenOrBuilder
-
optional bytes identifier = 1;
the TokenIdentifier in serialized form
Note: we can't use the protobuf directly because the Hadoop Token class
only stores the serialized bytes
- hasIdentifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional bytes identifier = 1;
- hasIdentifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
optional bytes identifier = 1;
- hasIdentifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationTokenOrBuilder
-
optional bytes identifier = 1;
- hasIfOlderThanTs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
optional uint64 if_older_than_ts = 2;
- hasIfOlderThanTs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
optional uint64 if_older_than_ts = 2;
- hasIfOlderThanTs() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequestOrBuilder
-
optional uint64 if_older_than_ts = 2;
- hasIncludeStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool include_start_row = 21 [default = true];
- hasIncludeStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool include_start_row = 21 [default = true];
- hasIncludeStartRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool include_start_row = 21 [default = true];
- hasIncludeStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool include_stop_row = 22 [default = false];
- hasIncludeStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool include_stop_row = 22 [default = false];
- hasIncludeStopRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool include_stop_row = 22 [default = false];
- hasIndex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional uint32 index = 1;
If part of a multi action, useful aligning
result with what was originally submitted.
- hasIndex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional uint32 index = 1;
If part of a multi action, useful aligning
result with what was originally submitted.
- hasIndex() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional uint32 index = 1;
If part of a multi action, useful aligning
result with what was originally submitted.
- hasIndex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional uint32 index = 1;
If part of a multi call, save original index of the list of all
passed so can align this response w/ original request.
- hasIndex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional uint32 index = 1;
If part of a multi call, save original index of the list of all
passed so can align this response w/ original request.
- hasIndex() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional uint32 index = 1;
If part of a multi call, save original index of the list of all
passed so can align this response w/ original request.
- hasInfoPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
optional int32 infoPort = 1;
- hasInfoPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
optional int32 infoPort = 1;
- hasInfoPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfoOrBuilder
-
optional int32 infoPort = 1;
- hasInfoPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
optional uint32 info_port = 3;
- hasInfoPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
optional uint32 info_port = 3;
- hasInfoPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MasterOrBuilder
-
optional uint32 info_port = 3;
- hasInfoServerPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint32 info_server_port = 9;
The port number that this region server is hosing an info server on.
- hasInfoServerPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint32 info_server_port = 9;
The port number that this region server is hosing an info server on.
- hasInfoServerPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint32 info_server_port = 9;
The port number that this region server is hosing an info server on.
- hasInstance() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
optional string instance = 2;
the procedure instance name
- hasInstance() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
optional string instance = 2;
the procedure instance name
- hasInstance() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
optional string instance = 2;
the procedure instance name
- hasInViolation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus.Builder
-
optional bool in_violation = 2;
- hasInViolation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
optional bool in_violation = 2;
- hasInViolation() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatusOrBuilder
-
optional bool in_violation = 2;
- hasIssueDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
optional int64 issue_date = 4;
- hasIssueDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
optional int64 issue_date = 4;
- hasIssueDate() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
optional int64 issue_date = 4;
- hasIv() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
optional bytes iv = 4;
- hasIv() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
optional bytes iv = 4;
- hasIv() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
optional bytes iv = 4;
- hasKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
required .hbase.pb.WALKey key = 1;
- hasKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry
-
required .hbase.pb.WALKey key = 1;
- hasKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntryOrBuilder
-
required .hbase.pb.WALKey key = 1;
- hasKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
required bytes key = 3;
- hasKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey
-
required bytes key = 3;
- hasKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKeyOrBuilder
-
required bytes key = 3;
- hasKeyId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
required int32 key_id = 3;
- hasKeyId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
required int32 key_id = 3;
- hasKeyId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
required int32 key_id = 3;
- hasKeyType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional .hbase.pb.CellType key_type = 5;
- hasKeyType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
optional .hbase.pb.CellType key_type = 5;
- hasKeyType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
optional .hbase.pb.CellType key_type = 5;
- hasKind() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
required .hbase.pb.TokenIdentifier.Kind kind = 1;
- hasKind() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
required .hbase.pb.TokenIdentifier.Kind kind = 1;
- hasKind() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
required .hbase.pb.TokenIdentifier.Kind kind = 1;
- hasKind() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional string kind = 3;
- hasKind() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
optional string kind = 3;
- hasKind() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationTokenOrBuilder
-
optional string kind = 3;
- hasLabel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel.Builder
-
required bytes label = 1;
- hasLabel() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
required bytes label = 1;
- hasLabel() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelOrBuilder
-
required bytes label = 1;
- hasLastDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 last_data_block_offset = 10;
- hasLastDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 last_data_block_offset = 10;
- hasLastDataBlockOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 last_data_block_offset = 10;
- hasLastFlushedSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
required uint64 last_flushed_sequence_id = 1;
- hasLastFlushedSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
required uint64 last_flushed_sequence_id = 1;
- hasLastFlushedSequenceId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIdsOrBuilder
-
required uint64 last_flushed_sequence_id = 1;
- hasLastFlushTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
required uint64 last_flush_time = 1;
- hasLastFlushTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
required uint64 last_flush_time = 1;
- hasLastFlushTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponseOrBuilder
-
required uint64 last_flush_time = 1;
- hasLastMajorCompactionTs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 last_major_compaction_ts = 17 [default = 0];
- hasLastMajorCompactionTs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 last_major_compaction_ts = 17 [default = 0];
- hasLastMajorCompactionTs() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 last_major_compaction_ts = 17 [default = 0];
- hasLatestVersionOnly() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bool latest_version_only = 6;
- hasLatestVersionOnly() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter
-
optional bool latest_version_only = 6;
- hasLatestVersionOnly() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilterOrBuilder
-
optional bool latest_version_only = 6;
- hasLeastSigBits() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID.Builder
-
required uint64 least_sig_bits = 1;
- hasLeastSigBits() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
required uint64 least_sig_bits = 1;
- hasLeastSigBits() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUIDOrBuilder
-
required uint64 least_sig_bits = 1;
- hasLenAsVal() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter.Builder
-
required bool len_as_val = 1;
- hasLenAsVal() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter
-
required bool len_as_val = 1;
- hasLenAsVal() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilterOrBuilder
-
required bool len_as_val = 1;
- hasLength() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required uint32 length = 2;
- hasLength() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey
-
required uint32 length = 2;
- hasLength() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKeyOrBuilder
-
required uint32 length = 2;
- hasLength() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta.Builder
-
optional uint32 length = 1;
Length of the following cell block.
- hasLength() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta
-
optional uint32 length = 1;
Length of the following cell block.
- hasLength() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMetaOrBuilder
-
optional uint32 length = 1;
Length of the following cell block.
- hasLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter.Builder
-
required int32 limit = 1;
- hasLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter
-
required int32 limit = 1;
- hasLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilterOrBuilder
-
required int32 limit = 1;
- hasLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
required int32 limit = 1;
- hasLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
required int32 limit = 1;
- hasLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilterOrBuilder
-
required int32 limit = 1;
- hasLimitOfRows() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint32 limit_of_rows = 11 [default = 0];
if we have returned limit_of_rows rows to client, then close the scanner.
- hasLimitOfRows() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional uint32 limit_of_rows = 11 [default = 0];
if we have returned limit_of_rows rows to client, then close the scanner.
- hasLimitOfRows() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional uint32 limit_of_rows = 11 [default = 0];
if we have returned limit_of_rows rows to client, then close the scanner.
- hasLineNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional int32 line_number = 4;
- hasLineNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional int32 line_number = 4;
- hasLineNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional int32 line_number = 4;
- hasLoadColumnFamiliesOnDemand() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool load_column_families_on_demand = 14;
DO NOT add defaults to load_column_families_on_demand.
- hasLoadColumnFamiliesOnDemand() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional bool load_column_families_on_demand = 14;
DO NOT add defaults to load_column_families_on_demand.
- hasLoadColumnFamiliesOnDemand() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional bool load_column_families_on_demand = 14;
DO NOT add defaults to load_column_families_on_demand.
- hasLoadColumnFamiliesOnDemand() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool load_column_families_on_demand = 13;
DO NOT add defaults to load_column_families_on_demand.
- hasLoadColumnFamiliesOnDemand() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool load_column_families_on_demand = 13;
DO NOT add defaults to load_column_families_on_demand.
- hasLoadColumnFamiliesOnDemand() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool load_column_families_on_demand = 13;
DO NOT add defaults to load_column_families_on_demand.
- hasLoaded() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse.Builder
-
required bool loaded = 1;
- hasLoaded() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse
-
required bool loaded = 1;
- hasLoaded() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponseOrBuilder
-
required bool loaded = 1;
- hasLoadOnOpenDataOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 load_on_open_data_offset = 2;
- hasLoadOnOpenDataOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 load_on_open_data_offset = 2;
- hasLoadOnOpenDataOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 load_on_open_data_offset = 2;
- hasLoadStats() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
已过时。
- hasLoadStats() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
已过时。
- hasLoadStats() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
已过时。
- hasLogSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional uint64 log_sequence_number = 4;
- hasLogSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
optional uint64 log_sequence_number = 4;
- hasLogSequenceNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
optional uint64 log_sequence_number = 4;
- hasLogSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required uint64 log_sequence_number = 3;
- hasLogSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
required uint64 log_sequence_number = 3;
- hasLogSequenceNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
required uint64 log_sequence_number = 3;
- hasLongMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg.Builder
-
required int64 long_msg = 1;
- hasLongMsg() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg
-
required int64 long_msg = 1;
- hasLongMsg() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsgOrBuilder
-
required int64 long_msg = 1;
- hasMajor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
optional bool major = 2;
- hasMajor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
optional bool major = 2;
- hasMajor() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequestOrBuilder
-
optional bool major = 2;
- hasMaster() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ServerName master = 7;
- hasMaster() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
optional .hbase.pb.ServerName master = 7;
- hasMaster() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatusOrBuilder
-
optional .hbase.pb.ServerName master = 7;
- hasMaster() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- hasMaster() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- hasMaster() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MasterOrBuilder
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- hasMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
optional uint64 master_system_time = 4;
wall clock time from master
- hasMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
optional uint64 master_system_time = 4;
wall clock time from master
- hasMasterSystemTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequestOrBuilder
-
optional uint64 master_system_time = 4;
wall clock time from master
- hasMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
optional uint64 master_system_time = 5;
wall clock time from master
- hasMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
optional uint64 master_system_time = 5;
wall clock time from master
- hasMasterSystemTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequestOrBuilder
-
optional uint64 master_system_time = 5;
wall clock time from master
- hasMaxColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bytes max_column = 3;
- hasMaxColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
optional bytes max_column = 3;
- hasMaxColumn() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilterOrBuilder
-
optional bytes max_column = 3;
- hasMaxColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bool max_column_inclusive = 4;
- hasMaxColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
optional bool max_column_inclusive = 4;
- hasMaxColumnInclusive() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilterOrBuilder
-
optional bool max_column_inclusive = 4;
- hasMaxHeapMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint32 max_heap_MB = 4;
the maximum allowable size of the heap, in MB.
- hasMaxHeapMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint32 max_heap_MB = 4;
the maximum allowable size of the heap, in MB.
- hasMaxHeapMB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint32 max_heap_MB = 4;
the maximum allowable size of the heap, in MB.
- hasMaxResultSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint64 max_result_size = 10;
- hasMaxResultSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint64 max_result_size = 10;
- hasMaxResultSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint64 max_result_size = 10;
- hasMaxVersions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional uint32 max_versions = 6 [default = 1];
- hasMaxVersions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional uint32 max_versions = 6 [default = 1];
- hasMaxVersions() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional uint32 max_versions = 6 [default = 1];
- hasMaxVersions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 max_versions = 7 [default = 1];
- hasMaxVersions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint32 max_versions = 7 [default = 1];
- hasMaxVersions() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint32 max_versions = 7 [default = 1];
- hasMemStoreLoad() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
optional int32 memStoreLoad = 1 [default = 0];
Percent load on the memstore.
- hasMemStoreLoad() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
optional int32 memStoreLoad = 1 [default = 0];
Percent load on the memstore.
- hasMemStoreLoad() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStatsOrBuilder
-
optional int32 memStoreLoad = 1 [default = 0];
Percent load on the memstore.
- hasMemstoreSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 memstore_size_MB = 6;
the current size of the memstore for the region, in MB
- hasMemstoreSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 memstore_size_MB = 6;
the current size of the memstore for the region, in MB
- hasMemstoreSizeMB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 memstore_size_MB = 6;
the current size of the memstore for the region, in MB
- hasMergeExistingPermissions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
optional bool merge_existing_permissions = 2 [default = false];
- hasMergeExistingPermissions() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
optional bool merge_existing_permissions = 2 [default = false];
- hasMergeExistingPermissions() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequestOrBuilder
-
optional bool merge_existing_permissions = 2 [default = false];
- hasMessage() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto.Builder
-
required string message = 1;
- hasMessage() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto
-
required string message = 1;
- hasMessage() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProtoOrBuilder
-
required string message = 1;
- hasMessage() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto.Builder
-
required string message = 1;
- hasMessage() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto
-
required string message = 1;
- hasMessage() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProtoOrBuilder
-
required string message = 1;
- hasMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional string message = 2;
- hasMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage
-
optional string message = 2;
- hasMessage() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessageOrBuilder
-
optional string message = 2;
- hasMetaIndexCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 meta_index_count = 6;
- hasMetaIndexCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint32 meta_index_count = 6;
- hasMetaIndexCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint32 meta_index_count = 6;
- hasMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required string method_name = 3;
- hasMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
required string method_name = 3;
- hasMethodName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCallOrBuilder
-
required string method_name = 3;
- hasMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string method_name = 2;
- hasMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage
-
optional string method_name = 2;
- hasMethodName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessageOrBuilder
-
optional string method_name = 2;
- hasMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional string method_name = 3;
- hasMethodName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional string method_name = 3;
- hasMethodName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional string method_name = 3;
- hasMinColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bytes min_column = 1;
- hasMinColumn() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
optional bytes min_column = 1;
- hasMinColumn() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilterOrBuilder
-
optional bytes min_column = 1;
- hasMinColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bool min_column_inclusive = 2;
- hasMinColumnInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter
-
optional bool min_column_inclusive = 2;
- hasMinColumnInclusive() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilterOrBuilder
-
optional bool min_column_inclusive = 2;
- hasMoreResults() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool more_results = 3;
- hasMoreResults() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional bool more_results = 3;
- hasMoreResults() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional bool more_results = 3;
- hasMoreResultsInRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool more_results_in_region = 8;
A server may choose to limit the number of results returned to the client for
reasons such as the size in bytes or quantity of results accumulated.
- hasMoreResultsInRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional bool more_results_in_region = 8;
A server may choose to limit the number of results returned to the client for
reasons such as the size in bytes or quantity of results accumulated.
- hasMoreResultsInRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional bool more_results_in_region = 8;
A server may choose to limit the number of results returned to the client for
reasons such as the size in bytes or quantity of results accumulated.
- hasMostSigBits() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID.Builder
-
required uint64 most_sig_bits = 2;
- hasMostSigBits() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID
-
required uint64 most_sig_bits = 2;
- hasMostSigBits() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUIDOrBuilder
-
required uint64 most_sig_bits = 2;
- hasMs() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto.Builder
-
required uint32 ms = 1;
- hasMs() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto
-
required uint32 ms = 1;
- hasMs() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProtoOrBuilder
-
required uint32 ms = 1;
- hasMutateType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.MutationProto.MutationType mutate_type = 2;
- hasMutateType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional .hbase.pb.MutationProto.MutationType mutate_type = 2;
- hasMutateType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional .hbase.pb.MutationProto.MutationType mutate_type = 2;
- hasMutation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.MutationProto mutation = 2;
- hasMutation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional .hbase.pb.MutationProto mutation = 2;
- hasMutation() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional .hbase.pb.MutationProto mutation = 2;
- hasMutation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.MutationProto mutation = 2;
- hasMutation() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
required .hbase.pb.MutationProto mutation = 2;
- hasMutation() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
required .hbase.pb.MutationProto mutation = 2;
- hasMvccReadPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint64 mvcc_read_point = 20 [default = 0];
- hasMvccReadPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint64 mvcc_read_point = 20 [default = 0];
- hasMvccReadPoint() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint64 mvcc_read_point = 20 [default = 0];
- hasMvccReadPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional uint64 mvcc_read_point = 11 [default = 0];
The mvcc read point which is used to open the scanner at server side.
- hasMvccReadPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional uint64 mvcc_read_point = 11 [default = 0];
The mvcc read point which is used to open the scanner at server side.
- hasMvccReadPoint() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional uint64 mvcc_read_point = 11 [default = 0];
The mvcc read point which is used to open the scanner at server side.
- hasName() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest.Builder
-
optional string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest
-
optional string name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequestOrBuilder
-
optional string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
required string name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ComparatorOrBuilder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
required string name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterOrBuilder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
required bytes name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema
-
required bytes name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchemaOrBuilder
-
required bytes name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor.Builder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor
-
required string name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.CoprocessorOrBuilder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
required string name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPairOrBuilder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
optional string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
optional string name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64PairOrBuilder
-
optional string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
required bytes name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor
-
required bytes name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptorOrBuilder
-
required bytes name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
required string name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPairOrBuilder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
required string name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
required string name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfoOrBuilder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
required string name = 1;
- hasName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
required string name = 1;
- hasName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFileOrBuilder
-
required string name = 1;
- hasNamespace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName.Builder
-
required bytes namespace = 1;
- hasNamespace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
required bytes namespace = 1;
- hasNamespace() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableNameOrBuilder
-
required bytes namespace = 1;
- hasNamespaceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional bytes namespace_name = 3;
- hasNamespaceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
optional bytes namespace_name = 3;
- hasNamespaceName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequestOrBuilder
-
optional bytes namespace_name = 3;
- hasNamespaceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission.Builder
-
optional bytes namespace_name = 1;
- hasNamespaceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission
-
optional bytes namespace_name = 1;
- hasNamespaceName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermissionOrBuilder
-
optional bytes namespace_name = 1;
- hasNamespacePermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- hasNamespacePermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- hasNamespacePermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- hasNeedCursorResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool need_cursor_result = 24 [default = false];
- hasNeedCursorResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool need_cursor_result = 24 [default = false];
- hasNeedCursorResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool need_cursor_result = 24 [default = false];
- hasNextCallSeq() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint64 next_call_seq = 6;
- hasNextCallSeq() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional uint64 next_call_seq = 6;
- hasNextCallSeq() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional uint64 next_call_seq = 6;
- hasNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional uint64 nonce = 9;
- hasNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional uint64 nonce = 9;
- hasNonce() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional uint64 nonce = 9;
- hasNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional uint64 nonce = 3;
- hasNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
optional uint64 nonce = 3;
- hasNonce() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
optional uint64 nonce = 3;
- hasNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional uint64 nonce = 5;
- hasNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
optional uint64 nonce = 5;
- hasNonce() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
optional uint64 nonce = 5;
- hasNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint64 nonce = 10;
- hasNonce() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
optional uint64 nonce = 10;
- hasNonce() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
optional uint64 nonce = 10;
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
optional uint64 nonceGroup = 2;
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest
-
optional uint64 nonceGroup = 2;
- hasNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequestOrBuilder
-
optional uint64 nonceGroup = 2;
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
optional uint64 nonce_group = 4;
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
optional uint64 nonce_group = 4;
- hasNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
optional uint64 nonce_group = 4;
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional uint64 nonce_group = 2;
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
optional uint64 nonce_group = 2;
- hasNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
optional uint64 nonce_group = 2;
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional uint64 nonce_group = 4;
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
optional uint64 nonce_group = 4;
- hasNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
optional uint64 nonce_group = 4;
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint64 nonceGroup = 9;
- hasNonceGroup() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
optional uint64 nonceGroup = 9;
- hasNonceGroup() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
optional uint64 nonceGroup = 9;
- hasNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 number_of_requests = 1;
Number of requests since last report.
- hasNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint64 number_of_requests = 1;
Number of requests since last report.
- hasNumberOfRequests() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint64 number_of_requests = 1;
Number of requests since last report.
- hasNumberOfRows() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint32 number_of_rows = 4;
- hasNumberOfRows() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional uint32 number_of_rows = 4;
- hasNumberOfRows() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional uint32 number_of_rows = 4;
- hasNumDataIndexLevels() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 num_data_index_levels = 8;
- hasNumDataIndexLevels() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint32 num_data_index_levels = 8;
- hasNumDataIndexLevels() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint32 num_data_index_levels = 8;
- hasOffline() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bool offline = 5;
- hasOffline() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
optional bool offline = 5;
- hasOffline() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
optional bool offline = 5;
- hasOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
optional int32 offset = 2;
- hasOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter
-
optional int32 offset = 2;
- hasOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilterOrBuilder
-
optional int32 offset = 2;
- hasOperator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
required .hbase.pb.FilterList.Operator operator = 1;
- hasOperator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList
-
required .hbase.pb.FilterList.Operator operator = 1;
- hasOperator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterListOrBuilder
-
required .hbase.pb.FilterList.Operator operator = 1;
- hasOrdinal() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel.Builder
-
optional uint32 ordinal = 2;
- hasOrdinal() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel
-
optional uint32 ordinal = 2;
- hasOrdinal() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelOrBuilder
-
optional uint32 ordinal = 2;
- hasOrigSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint64 orig_sequence_number = 11;
- hasOrigSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
optional uint64 orig_sequence_number = 11;
- hasOrigSequenceNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
optional uint64 orig_sequence_number = 11;
- hasOwner() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional string owner = 6;
- hasOwner() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional string owner = 6;
- hasOwner() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional string owner = 6;
- hasPageSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter.Builder
-
required int64 page_size = 1;
- hasPageSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter
-
required int64 page_size = 1;
- hasPageSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilterOrBuilder
-
required int64 page_size = 1;
- hasParentId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo.Builder
-
optional int64 parent_id = 2;
- hasParentId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
optional int64 parent_id = 2;
- hasParentId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfoOrBuilder
-
optional int64 parent_id = 2;
- hasPartial() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional bool partial = 5 [default = false];
Whether or not the entire result could be returned.
- hasPartial() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
optional bool partial = 5 [default = false];
Whether or not the entire result could be returned.
- hasPartial() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
optional bool partial = 5 [default = false];
Whether or not the entire result could be returned.
- hasPassword() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
optional bytes password = 2;
- hasPassword() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
optional bytes password = 2;
- hasPassword() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenOrBuilder
-
optional bytes password = 2;
- hasPassword() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional bytes password = 2;
- hasPassword() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
optional bytes password = 2;
- hasPassword() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationTokenOrBuilder
-
optional bytes password = 2;
- hasPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
required string path = 2;
- hasPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath
-
required string path = 2;
- hasPath() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPathOrBuilder
-
required string path = 2;
- hasPattern() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required string pattern = 1;
- hasPattern() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
required string pattern = 1;
- hasPattern() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
required string pattern = 1;
- hasPatternFlags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required int32 pattern_flags = 2;
- hasPatternFlags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator
-
required int32 pattern_flags = 2;
- hasPatternFlags() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparatorOrBuilder
-
required int32 pattern_flags = 2;
- hasPeerID() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required string peerID = 1;
- hasPeerID() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required string peerID = 1;
- hasPeerID() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required string peerID = 1;
- hasPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
required .hbase.pb.Permission permission = 3;
- hasPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
required .hbase.pb.Permission permission = 3;
- hasPermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermissionOrBuilder
-
required .hbase.pb.Permission permission = 3;
- hasPong() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse.Builder
-
required string pong = 1;
- hasPong() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse
-
required string pong = 1;
- hasPong() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponseOrBuilder
-
required string pong = 1;
- hasPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
optional uint32 port = 2;
- hasPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
optional uint32 port = 2;
- hasPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerNameOrBuilder
-
optional uint32 port = 2;
- hasPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional int32 port = 4;
- hasPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional int32 port = 4;
- hasPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional int32 port = 4;
- hasPosition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition.Builder
-
required int64 position = 1;
- hasPosition() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition
-
required int64 position = 1;
- hasPosition() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPositionOrBuilder
-
required int64 position = 1;
- hasPrefix() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter.Builder
-
required bytes prefix = 1;
- hasPrefix() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter
-
required bytes prefix = 1;
- hasPrefix() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilterOrBuilder
-
required bytes prefix = 1;
- hasPrefix() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter.Builder
-
optional bytes prefix = 1;
- hasPrefix() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter
-
optional bytes prefix = 1;
- hasPrefix() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilterOrBuilder
-
optional bytes prefix = 1;
- hasPriority() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional uint32 priority = 6;
0 is NORMAL priority. 200 is HIGH.
- hasPriority() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional uint32 priority = 6;
0 is NORMAL priority. 200 is HIGH.
- hasPriority() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional uint32 priority = 6;
0 is NORMAL priority. 200 is HIGH.
- hasProcessed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
optional bool processed = 2;
used for mutate to indicate processed only
- hasProcessed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
optional bool processed = 2;
used for mutate to indicate processed only
- hasProcessed() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponseOrBuilder
-
optional bool processed = 2;
used for mutate to indicate processed only
- hasProcessed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
optional bool processed = 2;
used for mutate to indicate processed only
- hasProcessed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
optional bool processed = 2;
used for mutate to indicate processed only
- hasProcessed() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponseOrBuilder
-
optional bool processed = 2;
used for mutate to indicate processed only
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional bytes qualifier = 3;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
optional bytes qualifier = 3;
- hasQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermissionOrBuilder
-
optional bytes qualifier = 3;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes qualifier = 3;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional bytes qualifier = 3;
- hasQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional bytes qualifier = 3;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
required bytes qualifier = 3;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
required bytes qualifier = 3;
- hasQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
required bytes qualifier = 3;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required bytes qualifier = 3;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required bytes qualifier = 3;
- hasQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required bytes qualifier = 3;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional bytes qualifier = 1;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
optional bytes qualifier = 1;
- hasQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValueOrBuilder
-
optional bytes qualifier = 1;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required bytes qualifier = 2;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter
-
required bytes qualifier = 2;
- hasQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilterOrBuilder
-
required bytes qualifier = 2;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName.Builder
-
required bytes qualifier = 2;
- hasQualifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName
-
required bytes qualifier = 2;
- hasQualifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableNameOrBuilder
-
required bytes qualifier = 2;
- hasQuota() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest.Builder
-
optional .hbase.pb.SpaceQuota quota = 1;
- hasQuota() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest
-
optional .hbase.pb.SpaceQuota quota = 1;
- hasQuota() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequestOrBuilder
-
optional .hbase.pb.SpaceQuota quota = 1;
- hasQuotaLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional uint64 quota_limit = 3;
- hasQuotaLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
optional uint64 quota_limit = 3;
- hasQuotaLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshotOrBuilder
-
optional uint64 quota_limit = 3;
- hasQuotaStatus() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- hasQuotaStatus() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- hasQuotaStatus() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshotOrBuilder
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- hasQuotaUsage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional uint64 quota_usage = 2;
- hasQuotaUsage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot
-
optional uint64 quota_usage = 2;
- hasQuotaUsage() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshotOrBuilder
-
optional uint64 quota_usage = 2;
- hasRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Builder
-
required .hbase.pb.Reference.Range range = 2;
- hasRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
required .hbase.pb.Reference.Range range = 2;
- hasRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.ReferenceOrBuilder
-
required .hbase.pb.Reference.Range range = 2;
- hasReadNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_num = 5;
- hasReadNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota read_num = 5;
- hasReadNum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota read_num = 5;
- hasReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 read_requests_count = 8;
the current total read requests made to region
- hasReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 read_requests_count = 8;
the current total read requests made to region
- hasReadRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 read_requests_count = 8;
the current total read requests made to region
- hasReadSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_size = 6;
- hasReadSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota read_size = 6;
- hasReadSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota read_size = 6;
- hasReadType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Scan.ReadType readType = 23 [default = DEFAULT];
- hasReadType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional .hbase.pb.Scan.ReadType readType = 23 [default = DEFAULT];
- hasReadType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional .hbase.pb.Scan.ReadType readType = 23 [default = DEFAULT];
- hasRealUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
optional string real_user = 2;
- hasRealUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation
-
optional string real_user = 2;
- hasRealUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformationOrBuilder
-
optional string real_user = 2;
- hasReason() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest.Builder
-
required string reason = 1;
- hasReason() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest
-
required string reason = 1;
- hasReason() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequestOrBuilder
-
required string reason = 1;
- hasReference() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
optional .hbase.pb.Reference reference = 2;
- hasReference() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile
-
optional .hbase.pb.Reference reference = 2;
- hasReference() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFileOrBuilder
-
optional .hbase.pb.Reference reference = 2;
- hasRegex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest.Builder
-
optional string regex = 1;
- hasRegex() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest
-
optional string regex = 1;
- hasRegex() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequestOrBuilder
-
optional string regex = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
required .hbase.pb.RegionInfo region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfoOrBuilder
-
required .hbase.pb.RegionInfo region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo
-
required .hbase.pb.RegionInfo region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfoOrBuilder
-
required .hbase.pb.RegionInfo region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest
-
optional .hbase.pb.RegionSpecifier region = 2;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 2;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponseOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
optional .hbase.pb.RegionSpecifier region = 2;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 2;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionOrBuilder
-
required .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 1;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.RegionInfo region = 4;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
optional .hbase.pb.RegionInfo region = 4;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplitOrBuilder
-
optional .hbase.pb.RegionInfo region = 4;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 4;
- hasRegion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest
-
optional .hbase.pb.RegionSpecifier region = 4;
- hasRegion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequestOrBuilder
-
optional .hbase.pb.RegionSpecifier region = 4;
- hasRegionA() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_a = 1;
- hasRegionA() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
required .hbase.pb.RegionSpecifier region_a = 1;
- hasRegionA() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region_a = 1;
- hasRegionB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_b = 2;
- hasRegionB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest
-
required .hbase.pb.RegionSpecifier region_b = 2;
- hasRegionB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequestOrBuilder
-
required .hbase.pb.RegionSpecifier region_b = 2;
- hasRegionId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
required uint64 region_id = 1;
- hasRegionId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
required uint64 region_id = 1;
- hasRegionId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
required uint64 region_id = 1;
- hasRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- hasRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse
-
required .hbase.pb.RegionInfo region_info = 1;
- hasRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponseOrBuilder
-
required .hbase.pb.RegionInfo region_info = 1;
- hasRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest.Builder
-
required .hbase.pb.RegionInfo regionInfo = 1;
- hasRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest
-
required .hbase.pb.RegionInfo regionInfo = 1;
- hasRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequestOrBuilder
-
required .hbase.pb.RegionInfo regionInfo = 1;
- hasRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- hasRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
required .hbase.pb.RegionInfo region_info = 1;
- hasRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStateOrBuilder
-
required .hbase.pb.RegionInfo region_info = 1;
- hasRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
required .hbase.pb.RegionInfo region_info = 2;
- hasRegionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
required .hbase.pb.RegionInfo region_info = 2;
- hasRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifestOrBuilder
-
required .hbase.pb.RegionInfo region_info = 2;
- hasRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
optional bytes region_name = 7;
full region name
- hasRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
optional bytes region_name = 7;
full region name
- hasRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
optional bytes region_name = 7;
full region name
- hasRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
optional bytes region_name = 6;
full region name
- hasRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
optional bytes region_name = 6;
full region name
- hasRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
optional bytes region_name = 6;
full region name
- hasRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional bytes region_name = 7;
full region name
- hasRegionName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
optional bytes region_name = 7;
full region name
- hasRegionName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
optional bytes region_name = 7;
full region name
- hasRegionSpecifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- hasRegionSpecifier() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- hasRegionSpecifier() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- hasRegionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionState region_state = 2;
- hasRegionState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
required .hbase.pb.RegionState region_state = 2;
- hasRegionState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransitionOrBuilder
-
required .hbase.pb.RegionState region_state = 2;
- hasRegionStatistics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- hasRegionStatistics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- hasRegionStatistics() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponseOrBuilder
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- hasRemove() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
optional bool remove = 3 [default = false];
When true, remove the quota.
- hasRemove() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
optional bool remove = 3 [default = false];
When true, remove the quota.
- hasRemove() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaOrBuilder
-
optional bool remove = 3 [default = false];
When true, remove the quota.
- hasRenew() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool renew = 10 [default = false];
- hasRenew() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional bool renew = 10 [default = false];
- hasRenew() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional bool renew = 10 [default = false];
- hasReplicaId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional int32 replica_id = 7 [default = 0];
- hasReplicaId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
optional int32 replica_id = 7 [default = 0];
- hasReplicaId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
optional int32 replica_id = 7 [default = 0];
- hasReplicationClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string replicationClusterId = 2;
- hasReplicationClusterId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
optional string replicationClusterId = 2;
- hasReplicationClusterId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
optional string replicationClusterId = 2;
- hasReplicationEndpointImpl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
optional string replicationEndpointImpl = 2;
- hasReplicationEndpointImpl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer
-
optional string replicationEndpointImpl = 2;
- hasReplicationEndpointImpl() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeerOrBuilder
-
optional string replicationEndpointImpl = 2;
- hasReplicationLag() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint64 replicationLag = 5;
- hasReplicationLag() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required uint64 replicationLag = 5;
- hasReplicationLag() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required uint64 replicationLag = 5;
- hasReplLoadSink() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- hasReplLoadSink() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- hasReplLoadSink() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- hasReportEndTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 report_end_time = 8;
Time when report was generated.
- hasReportEndTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint64 report_end_time = 8;
Time when report was generated.
- hasReportEndTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint64 report_end_time = 8;
Time when report was generated.
- hasReportStartTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 report_start_time = 7;
Time when incremental (non-total) counts began being calculated (e.g. number_of_requests)
time is measured as the difference, measured in milliseconds, between the current time
and midnight, January 1, 1970 UTC.
- hasReportStartTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint64 report_start_time = 7;
Time when incremental (non-total) counts began being calculated (e.g. number_of_requests)
time is measured as the difference, measured in milliseconds, between the current time
and midnight, January 1, 1970 UTC.
- hasReportStartTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint64 report_start_time = 7;
Time when incremental (non-total) counts began being calculated (e.g. number_of_requests)
time is measured as the difference, measured in milliseconds, between the current time
and midnight, January 1, 1970 UTC.
- hasReqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_num = 1;
- hasReqNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota req_num = 1;
- hasReqNum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota req_num = 1;
- hasReqSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_size = 2;
- hasReqSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota req_size = 2;
- hasReqSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota req_size = 2;
- hasRequest() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required bytes request = 4;
- hasRequest() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
required bytes request = 4;
- hasRequest() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCallOrBuilder
-
required bytes request = 4;
- hasRequestParam() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional bool request_param = 4;
If true, then a pb Message param follows.
- hasRequestParam() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional bool request_param = 4;
If true, then a pb Message param follows.
- hasRequestParam() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional bool request_param = 4;
If true, then a pb Message param follows.
- hasResponse() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse.Builder
-
optional string response = 1;
- hasResponse() - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse
-
optional string response = 1;
- hasResponse() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponseOrBuilder
-
optional string response = 1;
- hasResponse() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse.Builder
-
optional uint32 response = 1;
- hasResponse() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse
-
optional uint32 response = 1;
- hasResponse() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponseOrBuilder
-
optional uint32 response = 1;
- hasResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse.Builder
-
optional .hbase.pb.Result result = 1;
- hasResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse
-
optional .hbase.pb.Result result = 1;
- hasResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponseOrBuilder
-
optional .hbase.pb.Result result = 1;
- hasResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
optional .hbase.pb.Result result = 1;
- hasResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse
-
optional .hbase.pb.Result result = 1;
- hasResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponseOrBuilder
-
optional .hbase.pb.Result result = 1;
- hasResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.Result result = 2;
- hasResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional .hbase.pb.Result result = 2;
- hasResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional .hbase.pb.Result result = 2;
- hasReversed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool reversed = 15 [default = false];
- hasReversed() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bool reversed = 15 [default = false];
- hasReversed() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bool reversed = 15 [default = false];
- hasRevision() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string revision = 3;
- hasRevision() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string revision = 3;
- hasRevision() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string revision = 3;
- hasRootIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 root_index_size_KB = 12;
The current total size of root-level indexes for the region, in KB.
- hasRootIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 root_index_size_KB = 12;
The current total size of root-level indexes for the region, in KB.
- hasRootIndexSizeKB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 root_index_size_KB = 12;
The current total size of root-level indexes for the region, in KB.
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional bytes row = 1;
- hasRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
required bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
required bytes row = 1;
- hasRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
required bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
required bytes row = 1;
- hasRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
required bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
required bytes row = 1;
- hasRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCallOrBuilder
-
required bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor.Builder
-
optional bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor
-
optional bytes row = 1;
- hasRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CursorOrBuilder
-
optional bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
required bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
required bytes row = 1;
- hasRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
required bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional bytes row = 1;
- hasRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional bytes row = 1;
- hasRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional bytes row = 1;
- hasRowProcessorClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
required string row_processor_class_name = 1;
- hasRowProcessorClassName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
required string row_processor_class_name = 1;
- hasRowProcessorClassName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
required string row_processor_class_name = 1;
- hasRowProcessorInitializerMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional bytes row_processor_initializer_message = 3;
- hasRowProcessorInitializerMessage() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
optional bytes row_processor_initializer_message = 3;
- hasRowProcessorInitializerMessage() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
optional bytes row_processor_initializer_message = 3;
- hasRowProcessorInitializerMessageName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional string row_processor_initializer_message_name = 2;
- hasRowProcessorInitializerMessageName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest
-
optional string row_processor_initializer_message_name = 2;
- hasRowProcessorInitializerMessageName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequestOrBuilder
-
optional string row_processor_initializer_message_name = 2;
- hasRowProcessorResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse.Builder
-
required bytes row_processor_result = 1;
- hasRowProcessorResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse
-
required bytes row_processor_result = 1;
- hasRowProcessorResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponseOrBuilder
-
required bytes row_processor_result = 1;
- hasRpcVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
optional uint32 rpc_version = 2;
Major RPC version so that clients can know what version the master can accept.
- hasRpcVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master
-
optional uint32 rpc_version = 2;
Major RPC version so that clients can know what version the master can accept.
- hasRpcVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MasterOrBuilder
-
optional uint32 rpc_version = 2;
Major RPC version so that clients can know what version the master can accept.
- hasRpcVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
optional uint32 rpc_version = 2;
The major version of the rpc the server speaks.
- hasRpcVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
optional uint32 rpc_version = 2;
The major version of the rpc the server speaks.
- hasRpcVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServerOrBuilder
-
optional uint32 rpc_version = 2;
The major version of the rpc the server speaks.
- hasScan() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.Scan scan = 2;
- hasScan() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional .hbase.pb.Scan scan = 2;
- hasScan() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional .hbase.pb.Scan scan = 2;
- hasScanMetrics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- hasScanMetrics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- hasScanMetrics() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- hasScannerId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint64 scanner_id = 3;
- hasScannerId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional uint64 scanner_id = 3;
- hasScannerId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional uint64 scanner_id = 3;
- hasScannerId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional uint64 scanner_id = 2;
- hasScannerId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional uint64 scanner_id = 2;
- hasScannerId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional uint64 scanner_id = 2;
- hasScope() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
optional .hbase.pb.QuotaScope scope = 4 [default = MACHINE];
- hasScope() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
optional .hbase.pb.QuotaScope scope = 4 [default = MACHINE];
- hasScope() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuotaOrBuilder
-
optional .hbase.pb.QuotaScope scope = 4 [default = MACHINE];
- hasScopeType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope.Builder
-
required .hbase.pb.ScopeType scope_type = 2;
- hasScopeType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
required .hbase.pb.ScopeType scope_type = 2;
- hasScopeType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScopeOrBuilder
-
required .hbase.pb.ScopeType scope_type = 2;
- hasSecond() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair.Builder
-
required bytes second = 2;
- hasSecond() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
required bytes second = 2;
- hasSecond() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPairOrBuilder
-
required bytes second = 2;
- hasSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId.Builder
-
required uint64 sequence_id = 2;
- hasSequenceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
required uint64 sequence_id = 2;
- hasSequenceId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceIdOrBuilder
-
required uint64 sequence_id = 2;
- hasSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
optional int64 sequence_number = 6;
- hasSequenceNumber() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
optional int64 sequence_number = 6;
- hasSequenceNumber() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
optional int64 sequence_number = 6;
- hasSerializedComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
optional bytes serialized_comparator = 2;
- hasSerializedComparator() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
optional bytes serialized_comparator = 2;
- hasSerializedComparator() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ComparatorOrBuilder
-
optional bytes serialized_comparator = 2;
- hasSerializedFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
optional bytes serialized_filter = 2;
- hasSerializedFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
optional bytes serialized_filter = 2;
- hasSerializedFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterOrBuilder
-
optional bytes serialized_filter = 2;
- hasServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerName server = 1;
- hasServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
required .hbase.pb.ServerName server = 1;
- hasServer() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfoOrBuilder
-
required .hbase.pb.ServerName server = 1;
- hasServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- hasServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- hasServer() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- hasServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- hasServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- hasServer() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServerOrBuilder
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- hasServerInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse.Builder
-
required .hbase.pb.ServerInfo server_info = 1;
- hasServerInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
required .hbase.pb.ServerInfo server_info = 1;
- hasServerInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponseOrBuilder
-
required .hbase.pb.ServerInfo server_info = 1;
- hasServerLoad() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerLoad server_load = 2;
- hasServerLoad() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
required .hbase.pb.ServerLoad server_load = 2;
- hasServerLoad() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfoOrBuilder
-
required .hbase.pb.ServerLoad server_load = 2;
- hasServerName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
required .hbase.pb.ServerName server_name = 1;
- hasServerName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
required .hbase.pb.ServerName server_name = 1;
- hasServerName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfoOrBuilder
-
required .hbase.pb.ServerName server_name = 1;
- hasServerName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- hasServerName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- hasServerName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTaskOrBuilder
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- hasServerStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional uint64 serverStartCode = 5;
the intended server for this RPC.
- hasServerStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
optional uint64 serverStartCode = 5;
the intended server for this RPC.
- hasServerStartCode() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
optional uint64 serverStartCode = 5;
the intended server for this RPC.
- hasServerStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
optional uint64 serverStartCode = 2;
the intended server for this RPC.
- hasServerStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
optional uint64 serverStartCode = 2;
the intended server for this RPC.
- hasServerStartCode() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequestOrBuilder
-
optional uint64 serverStartCode = 2;
the intended server for this RPC.
- hasService() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
optional bytes service = 3;
- hasService() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
optional bytes service = 3;
- hasService() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenOrBuilder
-
optional bytes service = 3;
- hasService() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional string service = 4;
- hasService() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
optional string service = 4;
- hasService() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationTokenOrBuilder
-
optional string service = 4;
- hasServiceCall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- hasServiceCall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- hasServiceCall() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ActionOrBuilder
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- hasServiceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required string service_name = 2;
- hasServiceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
required string service_name = 2;
- hasServiceName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCallOrBuilder
-
required string service_name = 2;
- hasServiceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string service_name = 2;
- hasServiceName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional string service_name = 2;
- hasServiceName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional string service_name = 2;
- hasServiceResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- hasServiceResult() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- hasServiceResult() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrExceptionOrBuilder
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- hasShare() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
optional float share = 3;
- hasShare() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
optional float share = 3;
- hasShare() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuotaOrBuilder
-
optional float share = 3;
- hasSignature() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
required string signature = 1;
the unique signature of the procedure
- hasSignature() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
required string signature = 1;
the unique signature of the procedure
- hasSignature() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescriptionOrBuilder
-
required string signature = 1;
the unique signature of the procedure
- hasSingleColumnValueFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter.Builder
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- hasSingleColumnValueFilter() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- hasSingleColumnValueFilter() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilterOrBuilder
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- hasSizeOfLogQueue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint32 sizeOfLogQueue = 3;
- hasSizeOfLogQueue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required uint32 sizeOfLogQueue = 3;
- hasSizeOfLogQueue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required uint32 sizeOfLogQueue = 3;
- hasSmall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
已过时。
- hasSmall() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
已过时。
- hasSmall() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
已过时。
- hasSoftLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
optional uint64 soft_limit = 1;
The limit of bytes for this quota
- hasSoftLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
optional uint64 soft_limit = 1;
The limit of bytes for this quota
- hasSoftLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaOrBuilder
-
optional uint64 soft_limit = 1;
The limit of bytes for this quota
- hasSoftLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
optional uint64 soft_limit = 2;
- hasSoftLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
optional uint64 soft_limit = 2;
- hasSoftLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuotaOrBuilder
-
optional uint64 soft_limit = 2;
- hasSource() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional string source = 1;
- hasSource() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
optional string source = 1;
- hasSource() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessageOrBuilder
-
optional string source = 1;
- hasSourceBaseNamespaceDirPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string sourceBaseNamespaceDirPath = 3;
- hasSourceBaseNamespaceDirPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
optional string sourceBaseNamespaceDirPath = 3;
- hasSourceBaseNamespaceDirPath() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
optional string sourceBaseNamespaceDirPath = 3;
- hasSourceHFileArchiveDirPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string sourceHFileArchiveDirPath = 4;
- hasSourceHFileArchiveDirPath() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
optional string sourceHFileArchiveDirPath = 4;
- hasSourceHFileArchiveDirPath() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequestOrBuilder
-
optional string sourceHFileArchiveDirPath = 4;
- hasSpace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.SpaceQuota space = 3;
- hasSpace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
optional .hbase.pb.SpaceQuota space = 3;
- hasSpace() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotasOrBuilder
-
optional .hbase.pb.SpaceQuota space = 3;
- hasSpec() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionSpecifier spec = 1;
- hasSpec() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
required .hbase.pb.RegionSpecifier spec = 1;
- hasSpec() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransitionOrBuilder
-
required .hbase.pb.RegionSpecifier spec = 1;
- hasSplit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bool split = 6;
- hasSplit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
optional bool split = 6;
- hasSplit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
optional bool split = 6;
- hasSplitkey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Builder
-
required bytes splitkey = 1;
- hasSplitkey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
required bytes splitkey = 1;
- hasSplitkey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.ReferenceOrBuilder
-
required bytes splitkey = 1;
- hasSplitPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
optional bytes split_point = 2;
- hasSplitPoint() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
optional bytes split_point = 2;
- hasSplitPoint() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequestOrBuilder
-
optional bytes split_point = 2;
- hasSrcChecksum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string src_checksum = 6;
- hasSrcChecksum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string src_checksum = 6;
- hasSrcChecksum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string src_checksum = 6;
- hasStackTrace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string stack_trace = 2;
Exception stack trace from the server side
- hasStackTrace() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
optional string stack_trace = 2;
Exception stack trace from the server side
- hasStackTrace() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponseOrBuilder
-
optional string stack_trace = 2;
Exception stack trace from the server side
- hasStale() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional bool stale = 4 [default = false];
Whether or not the results are coming from possibly stale data
- hasStale() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
optional bool stale = 4 [default = false];
Whether or not the results are coming from possibly stale data
- hasStale() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrBuilder
-
optional bool stale = 4 [default = false];
Whether or not the results are coming from possibly stale data
- hasStale() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool stale = 6;
- hasStale() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional bool stale = 6;
- hasStale() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional bool stale = 6;
- hasStamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
optional uint64 stamp = 3;
- hasStamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
optional uint64 stamp = 3;
- hasStamp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStateOrBuilder
-
optional uint64 stamp = 3;
- hasStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
optional uint64 start_code = 3;
- hasStartCode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
optional uint64 start_code = 3;
- hasStartCode() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerNameOrBuilder
-
optional uint64 start_code = 3;
- hasStartDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp.Builder
-
required string start_date = 1;
If this znode is present, cluster is up.
- hasStartDate() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
required string start_date = 1;
If this znode is present, cluster is up.
- hasStartDate() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUpOrBuilder
-
required string start_date = 1;
If this znode is present, cluster is up.
- hasStartKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bytes start_key = 3;
- hasStartKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
optional bytes start_key = 3;
- hasStartKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
optional bytes start_key = 3;
- hasStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bytes start_row = 3;
- hasStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bytes start_row = 3;
- hasStartRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bytes start_row = 3;
- hasStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bytes start_row = 1;
- hasStartRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
optional bytes start_row = 1;
- hasStartRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRangeOrBuilder
-
optional bytes start_row = 1;
- hasStartRowInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bool start_row_inclusive = 2;
- hasStartRowInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
optional bool start_row_inclusive = 2;
- hasStartRowInclusive() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRangeOrBuilder
-
optional bool start_row_inclusive = 2;
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
required .hbase.pb.RegionState.State state = 2;
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
required .hbase.pb.RegionState.State state = 2;
- hasState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStateOrBuilder
-
required .hbase.pb.RegionState.State state = 2;
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState.Builder
-
required .hbase.pb.TableState.State state = 1;
This is the table's state.
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState
-
required .hbase.pb.TableState.State state = 1;
This is the table's state.
- hasState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableStateOrBuilder
-
required .hbase.pb.TableState.State state = 1;
This is the table's state.
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState.Builder
-
required .hbase.pb.DeprecatedTableState.State state = 1 [default = ENABLED];
This is the table's state.
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState
-
required .hbase.pb.DeprecatedTableState.State state = 1 [default = ENABLED];
This is the table's state.
- hasState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableStateOrBuilder
-
required .hbase.pb.DeprecatedTableState.State state = 1 [default = ENABLED];
This is the table's state.
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
optional .hbase.pb.RegionState.State state = 3;
State of the region transition.
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
optional .hbase.pb.RegionState.State state = 3;
State of the region transition.
- hasState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServerOrBuilder
-
optional .hbase.pb.RegionState.State state = 3;
State of the region transition.
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState.Builder
-
required .hbase.pb.ReplicationState.State state = 1;
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState
-
required .hbase.pb.ReplicationState.State state = 1;
- hasState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationStateOrBuilder
-
required .hbase.pb.ReplicationState.State state = 1;
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
required .hbase.pb.SplitLogTask.State state = 1;
- hasState() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
required .hbase.pb.SplitLogTask.State state = 1;
- hasState() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTaskOrBuilder
-
required .hbase.pb.SplitLogTask.State state = 1;
- hasStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bytes stop_row = 4;
- hasStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional bytes stop_row = 4;
- hasStopRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional bytes stop_row = 4;
- hasStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bytes stop_row = 3;
- hasStopRow() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
optional bytes stop_row = 3;
- hasStopRow() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRangeOrBuilder
-
optional bytes stop_row = 3;
- hasStopRowInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bool stop_row_inclusive = 4;
- hasStopRowInclusive() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
optional bool stop_row_inclusive = 4;
- hasStopRowInclusive() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRangeOrBuilder
-
optional bool stop_row_inclusive = 4;
- hasStopRowKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter.Builder
-
optional bytes stop_row_key = 1;
- hasStopRowKey() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter
-
optional bytes stop_row_key = 1;
- hasStopRowKey() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilterOrBuilder
-
optional bytes stop_row_key = 1;
- hasStorefileIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 storefile_index_size_KB = 7;
The current total size of root-level store file indexes for the region,
in KB.
- hasStorefileIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 storefile_index_size_KB = 7;
The current total size of root-level store file indexes for the region,
in KB.
- hasStorefileIndexSizeKB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 storefile_index_size_KB = 7;
The current total size of root-level store file indexes for the region,
in KB.
- hasStorefiles() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 storefiles = 3;
the number of storefiles for the region
- hasStorefiles() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 storefiles = 3;
the number of storefiles for the region
- hasStorefiles() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 storefiles = 3;
the number of storefiles for the region
- hasStoreFileSizeBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
optional uint64 store_file_size_bytes = 4;
size of store file
- hasStoreFileSizeBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
optional uint64 store_file_size_bytes = 4;
size of store file
- hasStoreFileSizeBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
optional uint64 store_file_size_bytes = 4;
size of store file
- hasStorefileSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 storefile_size_MB = 5;
the current total size of the store files for the region, in MB
- hasStorefileSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 storefile_size_MB = 5;
the current total size of the store files for the region, in MB
- hasStorefileSizeMB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 storefile_size_MB = 5;
the current total size of the store files for the region, in MB
- hasStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required string store_home_dir = 6;
relative to region dir
- hasStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
required string store_home_dir = 6;
relative to region dir
- hasStoreHomeDir() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
required string store_home_dir = 6;
relative to region dir
- hasStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
required string store_home_dir = 2;
relative to region dir
- hasStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
required string store_home_dir = 2;
relative to region dir
- hasStoreHomeDir() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptorOrBuilder
-
required string store_home_dir = 2;
relative to region dir
- hasStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
required string store_home_dir = 2;
relative to region dir
- hasStoreHomeDir() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
required string store_home_dir = 2;
relative to region dir
- hasStoreHomeDir() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptorOrBuilder
-
required string store_home_dir = 2;
relative to region dir
- hasStoreLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional uint32 store_limit = 8;
- hasStoreLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional uint32 store_limit = 8;
- hasStoreLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional uint32 store_limit = 8;
- hasStoreLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 store_limit = 11;
- hasStoreLimit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint32 store_limit = 11;
- hasStoreLimit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint32 store_limit = 11;
- hasStoreOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional uint32 store_offset = 9;
- hasStoreOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional uint32 store_offset = 9;
- hasStoreOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional uint32 store_offset = 9;
- hasStoreOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 store_offset = 12;
- hasStoreOffset() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional uint32 store_offset = 12;
- hasStoreOffset() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional uint32 store_offset = 12;
- hasStores() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 stores = 2;
the number of stores for the region
- hasStores() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 stores = 2;
the number of stores for the region
- hasStores() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 stores = 2;
the number of stores for the region
- hasStoreUncompressedSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 store_uncompressed_size_MB = 4;
the total size of the store files for the region, uncompressed, in MB
- hasStoreUncompressedSizeMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 store_uncompressed_size_MB = 4;
the total size of the store files for the region, uncompressed, in MB
- hasStoreUncompressedSizeMB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 store_uncompressed_size_MB = 4;
the total size of the store files for the region, uncompressed, in MB
- hasSubstr() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator.Builder
-
required string substr = 1;
- hasSubstr() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
required string substr = 1;
- hasSubstr() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparatorOrBuilder
-
required string substr = 1;
- hasTable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- hasTable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- hasTable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- hasTable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.TableSchema table = 3;
- hasTable() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit
-
optional .hbase.pb.TableSchema table = 3;
- hasTable() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplitOrBuilder
-
optional .hbase.pb.TableSchema table = 3;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData.Builder
-
required string table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData
-
required string table_name = 1;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateDataOrBuilder
-
required string table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional .hbase.pb.TableName table_name = 2;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
optional .hbase.pb.TableName table_name = 2;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequestOrBuilder
-
optional .hbase.pb.TableName table_name = 2;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional .hbase.pb.TableName table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission
-
optional .hbase.pb.TableName table_name = 1;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermissionOrBuilder
-
optional .hbase.pb.TableName table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
required .hbase.pb.TableName table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest
-
required .hbase.pb.TableName table_name = 1;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequestOrBuilder
-
required .hbase.pb.TableName table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
required .hbase.pb.TableName table_name = 2;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
required .hbase.pb.TableName table_name = 2;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfoOrBuilder
-
required .hbase.pb.TableName table_name = 2;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
optional .hbase.pb.TableName table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema
-
optional .hbase.pb.TableName table_name = 1;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchemaOrBuilder
-
optional .hbase.pb.TableName table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required .hbase.pb.TableName table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
required .hbase.pb.TableName table_name = 1;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptorOrBuilder
-
required .hbase.pb.TableName table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required bytes table_name = 1;
TODO: WALKey already stores these, might remove
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
required bytes table_name = 1;
TODO: WALKey already stores these, might remove
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptorOrBuilder
-
required bytes table_name = 1;
TODO: WALKey already stores these, might remove
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
required bytes table_name = 2;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
required bytes table_name = 2;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptorOrBuilder
-
required bytes table_name = 2;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
required bytes table_name = 2;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
required bytes table_name = 2;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptorOrBuilder
-
required bytes table_name = 2;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required bytes table_name = 2;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
required bytes table_name = 2;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
required bytes table_name = 2;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
optional .hbase.pb.TableName table_name = 1;
- hasTableName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF
-
optional .hbase.pb.TableName table_name = 1;
- hasTableName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCFOrBuilder
-
optional .hbase.pb.TableName table_name = 1;
- hasTablePermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.TablePermission table_permission = 4;
- hasTablePermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
optional .hbase.pb.TablePermission table_permission = 4;
- hasTablePermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
optional .hbase.pb.TablePermission table_permission = 4;
- hasTableSchema() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
required .hbase.pb.TableSchema table_schema = 1;
- hasTableSchema() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest
-
required .hbase.pb.TableSchema table_schema = 1;
- hasTableSchema() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifestOrBuilder
-
required .hbase.pb.TableSchema table_schema = 1;
- hasTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes tags = 7;
- hasTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional bytes tags = 7;
- hasTags() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional bytes tags = 7;
- hasTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional bytes tags = 7;
- hasTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
optional bytes tags = 7;
- hasTags() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
optional bytes tags = 7;
- hasTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional bytes tags = 5;
- hasTags() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
optional bytes tags = 5;
- hasTags() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValueOrBuilder
-
optional bytes tags = 5;
- hasThrottle() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.Throttle throttle = 2;
- hasThrottle() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
optional .hbase.pb.Throttle throttle = 2;
- hasThrottle() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotasOrBuilder
-
optional .hbase.pb.Throttle throttle = 2;
- hasTimedQuota() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- hasTimedQuota() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- hasTimedQuota() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequestOrBuilder
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- hasTimeout() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional uint32 timeout = 7;
- hasTimeout() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional uint32 timeout = 7;
- hasTimeout() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional uint32 timeout = 7;
- hasTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- hasTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition
-
optional .hbase.pb.TimeRange time_range = 6;
- hasTimeRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ConditionOrBuilder
-
optional .hbase.pb.TimeRange time_range = 6;
- hasTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.TimeRange time_range = 5;
- hasTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
optional .hbase.pb.TimeRange time_range = 5;
- hasTimeRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetOrBuilder
-
optional .hbase.pb.TimeRange time_range = 5;
- hasTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- hasTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- hasTimeRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- hasTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- hasTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
optional .hbase.pb.TimeRange time_range = 6;
- hasTimeRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanOrBuilder
-
optional .hbase.pb.TimeRange time_range = 6;
- hasTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
required .hbase.pb.TimeRange time_range = 2;
- hasTimeRange() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange
-
required .hbase.pb.TimeRange time_range = 2;
- hasTimeRange() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRangeOrBuilder
-
required .hbase.pb.TimeRange time_range = 2;
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional uint64 timestamp = 4;
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional uint64 timestamp = 4;
- hasTimestamp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional uint64 timestamp = 4;
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional uint64 timestamp = 4;
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
optional uint64 timestamp = 4;
- hasTimestamp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
optional uint64 timestamp = 4;
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional uint64 timestamp = 4;
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional uint64 timestamp = 3;
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
optional uint64 timestamp = 3;
- hasTimestamp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValueOrBuilder
-
optional uint64 timestamp = 3;
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto
-
optional uint64 timestamp = 4;
- hasTimestamp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProtoOrBuilder
-
optional uint64 timestamp = 4;
- hasTimeStampOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint64 timeStampOfLastShippedOp = 4;
- hasTimeStampOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
required uint64 timeStampOfLastShippedOp = 4;
- hasTimeStampOfLastShippedOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSourceOrBuilder
-
required uint64 timeStampOfLastShippedOp = 4;
- hasTimeStampsOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink.Builder
-
required uint64 timeStampsOfLastAppliedOp = 2;
- hasTimeStampsOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink
-
required uint64 timeStampsOfLastAppliedOp = 2;
- hasTimeStampsOfLastAppliedOp() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSinkOrBuilder
-
required uint64 timeStampsOfLastAppliedOp = 2;
- hasTimeUnit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
required .hbase.pb.TimeUnit time_unit = 1;
- hasTimeUnit() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
required .hbase.pb.TimeUnit time_unit = 1;
- hasTimeUnit() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuotaOrBuilder
-
required .hbase.pb.TimeUnit time_unit = 1;
- hasTo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange.Builder
-
optional uint64 to = 2;
- hasTo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange
-
optional uint64 to = 2;
- hasTo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRangeOrBuilder
-
optional uint64 to = 2;
- hasToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse.Builder
-
optional .hbase.pb.Token token = 1;
- hasToken() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse
-
optional .hbase.pb.Token token = 1;
- hasToken() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponseOrBuilder
-
optional .hbase.pb.Token token = 1;
- hasTotalCompactingKVs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 total_compacting_KVs = 10;
the total compacting key values in currently running compaction
- hasTotalCompactingKVs() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 total_compacting_KVs = 10;
the total compacting key values in currently running compaction
- hasTotalCompactingKVs() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 total_compacting_KVs = 10;
the total compacting key values in currently running compaction
- hasTotalNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 total_number_of_requests = 2;
Total Number of requests from the start of the region server.
- hasTotalNumberOfRequests() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint64 total_number_of_requests = 2;
Total Number of requests from the start of the region server.
- hasTotalNumberOfRequests() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint64 total_number_of_requests = 2;
Total Number of requests from the start of the region server.
- hasTotalStaticBloomSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 total_static_bloom_size_KB = 14;
The total size of all Bloom filter blocks, not just loaded into the
block cache, in KB.
- hasTotalStaticBloomSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 total_static_bloom_size_KB = 14;
The total size of all Bloom filter blocks, not just loaded into the
block cache, in KB.
- hasTotalStaticBloomSizeKB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 total_static_bloom_size_KB = 14;
The total size of all Bloom filter blocks, not just loaded into the
block cache, in KB.
- hasTotalStaticIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 total_static_index_size_KB = 13;
The total size of all index blocks, not just the root level, in KB.
- hasTotalStaticIndexSizeKB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint32 total_static_index_size_KB = 13;
The total size of all index blocks, not just the root level, in KB.
- hasTotalStaticIndexSizeKB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint32 total_static_index_size_KB = 13;
The total size of all index blocks, not just the root level, in KB.
- hasTotalUncompressedBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 total_uncompressed_bytes = 4;
- hasTotalUncompressedBytes() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 total_uncompressed_bytes = 4;
- hasTotalUncompressedBytes() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 total_uncompressed_bytes = 4;
- hasTraceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo.Builder
-
optional int64 trace_id = 1;
- hasTraceId() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo
-
optional int64 trace_id = 1;
- hasTraceId() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfoOrBuilder
-
optional int64 trace_id = 1;
- hasTraceInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- hasTraceInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- hasTraceInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeaderOrBuilder
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- hasTrackScanMetrics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool track_scan_metrics = 9;
- hasTrackScanMetrics() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
optional bool track_scan_metrics = 9;
- hasTrackScanMetrics() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequestOrBuilder
-
optional bool track_scan_metrics = 9;
- hasTransitionInZK() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional bool transition_in_ZK = 3 [default = true];
- hasTransitionInZK() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
optional bool transition_in_ZK = 3 [default = true];
- hasTransitionInZK() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
optional bool transition_in_ZK = 3 [default = true];
- hasTtl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional uint32 ttl = 4;
- hasTtl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
optional uint32 ttl = 4;
- hasTtl() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponseOrBuilder
-
optional uint32 ttl = 4;
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional .hbase.pb.Permission.Type type = 1;
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest
-
optional .hbase.pb.Permission.Type type = 1;
- hasType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequestOrBuilder
-
optional .hbase.pb.Permission.Type type = 1;
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
required .hbase.pb.Permission.Type type = 1;
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission
-
required .hbase.pb.Permission.Type type = 1;
- hasType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.PermissionOrBuilder
-
required .hbase.pb.Permission.Type type = 1;
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.Builder
-
required .hbase.pb.RegionSpecifier.RegionSpecifierType type = 1;
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
required .hbase.pb.RegionSpecifier.RegionSpecifierType type = 1;
- hasType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifierOrBuilder
-
required .hbase.pb.RegionSpecifier.RegionSpecifierType type = 1;
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional .hbase.pb.SnapshotDescription.Type type = 4 [default = FLUSH];
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional .hbase.pb.SnapshotDescription.Type type = 4 [default = FLUSH];
- hasType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional .hbase.pb.SnapshotDescription.Type type = 4 [default = FLUSH];
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
optional .hbase.pb.ThrottleType type = 1;
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest
-
optional .hbase.pb.ThrottleType type = 1;
- hasType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequestOrBuilder
-
optional .hbase.pb.ThrottleType type = 1;
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
required .hbase.pb.SnapshotFileInfo.Type type = 1;
- hasType() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
required .hbase.pb.SnapshotFileInfo.Type type = 1;
- hasType() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
required .hbase.pb.SnapshotFileInfo.Type type = 1;
- hasUncompressedDataIndexSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 uncompressed_data_index_size = 3;
- hasUncompressedDataIndexSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto
-
optional uint64 uncompressed_data_index_size = 3;
- hasUncompressedDataIndexSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProtoOrBuilder
-
optional uint64 uncompressed_data_index_size = 3;
- hasUrl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string url = 2;
- hasUrl() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string url = 2;
- hasUrl() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string url = 2;
- hasUsedHeapMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint32 used_heap_MB = 3;
the amount of used heap, in MB.
- hasUsedHeapMB() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad
-
optional uint32 used_heap_MB = 3;
the amount of used heap, in MB.
- hasUsedHeapMB() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoadOrBuilder
-
optional uint32 used_heap_MB = 3;
the amount of used heap, in MB.
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission
-
required bytes user = 1;
- hasUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermissionOrBuilder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions
-
required bytes user = 1;
- hasUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissionsOrBuilder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string user = 4;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string user = 4;
- hasUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string user = 4;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest.Builder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest
-
required bytes user = 1;
- hasUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequestOrBuilder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse.Builder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse
-
required bytes user = 1;
- hasUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponseOrBuilder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest.Builder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest
-
required bytes user = 1;
- hasUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequestOrBuilder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations.Builder
-
required bytes user = 1;
- hasUser() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations
-
required bytes user = 1;
- hasUser() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizationsOrBuilder
-
required bytes user = 1;
- hasUserInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.UserInformation user_info = 1;
- hasUserInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional .hbase.pb.UserInformation user_info = 1;
- hasUserInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional .hbase.pb.UserInformation user_info = 1;
- hasUsername() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
required bytes username = 2;
- hasUsername() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
required bytes username = 2;
- hasUsername() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifierOrBuilder
-
required bytes username = 2;
- hasUsername() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
optional string username = 1;
- hasUsername() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse
-
optional string username = 1;
- hasUsername() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponseOrBuilder
-
optional string username = 1;
- hasUserPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- hasUserPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest
-
required .hbase.pb.UserPermission user_permission = 1;
- hasUserPermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequestOrBuilder
-
required .hbase.pb.UserPermission user_permission = 1;
- hasUserPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- hasUserPermission() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest
-
required .hbase.pb.UserPermission user_permission = 1;
- hasUserPermission() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequestOrBuilder
-
required .hbase.pb.UserPermission user_permission = 1;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes value = 6;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell
-
optional bytes value = 6;
- hasValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.CellOrBuilder
-
optional bytes value = 6;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional bytes value = 6;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue
-
optional bytes value = 6;
- hasValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValueOrBuilder
-
optional bytes value = 6;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.NameBytesPair value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse
-
required .hbase.pb.NameBytesPair value = 2;
- hasValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponseOrBuilder
-
required .hbase.pb.NameBytesPair value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult.Builder
-
optional .hbase.pb.NameBytesPair value = 1;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult
-
optional .hbase.pb.NameBytesPair value = 1;
- hasValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResultOrBuilder
-
optional .hbase.pb.NameBytesPair value = 1;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional bytes value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue
-
optional bytes value = 2;
- hasValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValueOrBuilder
-
optional bytes value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable.Builder
-
optional bytes value = 1;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable
-
optional bytes value = 1;
- hasValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparableOrBuilder
-
optional bytes value = 1;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
optional bytes value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair
-
optional bytes value = 2;
- hasValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPairOrBuilder
-
optional bytes value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
optional int64 value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair
-
optional int64 value = 2;
- hasValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64PairOrBuilder
-
optional int64 value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
required string value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair
-
required string value = 2;
- hasValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPairOrBuilder
-
required string value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.Builder
-
required bytes value = 2;
- hasValue() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier
-
required bytes value = 2;
- hasValue() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifierOrBuilder
-
required bytes value = 2;
- hasVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent.Builder
-
required string version = 1;
- hasVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent
-
required string version = 1;
- hasVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContentOrBuilder
-
required string version = 1;
- hasVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional int32 version = 5;
- hasVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription
-
optional int32 version = 5;
- hasVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescriptionOrBuilder
-
optional int32 version = 5;
- hasVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string version = 1;
- hasVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
required string version = 1;
- hasVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
required string version = 1;
- hasVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
optional int32 version = 1;
- hasVersion() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest
-
optional int32 version = 1;
- hasVersion() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifestOrBuilder
-
optional int32 version = 1;
- hasVersionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
optional .hbase.pb.VersionInfo version_info = 2;
- hasVersionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo
-
optional .hbase.pb.VersionInfo version_info = 2;
- hasVersionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfoOrBuilder
-
optional .hbase.pb.VersionInfo version_info = 2;
- hasVersionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.VersionInfo version_info = 5;
- hasVersionInfo() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
optional .hbase.pb.VersionInfo version_info = 5;
- hasVersionInfo() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeaderOrBuilder
-
optional .hbase.pb.VersionInfo version_info = 5;
- hasVersionMajor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
optional uint32 version_major = 7;
- hasVersionMajor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
optional uint32 version_major = 7;
- hasVersionMajor() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
optional uint32 version_major = 7;
- hasVersionMinor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
optional uint32 version_minor = 8;
- hasVersionMinor() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
optional uint32 version_minor = 8;
- hasVersionMinor() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfoOrBuilder
-
optional uint32 version_minor = 8;
- hasVersionOfClosingNode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional uint32 version_of_closing_node = 2;
- hasVersionOfClosingNode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
optional uint32 version_of_closing_node = 2;
- hasVersionOfClosingNode() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequestOrBuilder
-
optional uint32 version_of_closing_node = 2;
- hasVersionOfOfflineNode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
optional uint32 version_of_offline_node = 2;
- hasVersionOfOfflineNode() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo
-
optional uint32 version_of_offline_node = 2;
- hasVersionOfOfflineNode() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfoOrBuilder
-
optional uint32 version_of_offline_node = 2;
- hasViolationPolicy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 2;
The action to take when the quota is violated
- hasViolationPolicy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 2;
The action to take when the quota is violated
- hasViolationPolicy() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaOrBuilder
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 2;
The action to take when the quota is violated
- hasViolationPolicy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus.Builder
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 1;
- hasViolationPolicy() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 1;
- hasViolationPolicy() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatusOrBuilder
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 1;
- hasWalName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string wal_name = 5;
- hasWalName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
optional string wal_name = 5;
- hasWalName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
optional string wal_name = 5;
- hasWalServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string wal_server = 4;
- hasWalServer() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
optional string wal_server = 4;
- hasWalServer() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfoOrBuilder
-
optional string wal_server = 4;
- hasWebuiPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
optional uint32 webui_port = 2;
- hasWebuiPort() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
optional uint32 webui_port = 2;
- hasWebuiPort() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfoOrBuilder
-
optional uint32 webui_port = 2;
- hasWriteFlushWalMarker() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
optional bool write_flush_wal_marker = 3;
whether to write a marker to WAL even if not flushed
- hasWriteFlushWalMarker() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest
-
optional bool write_flush_wal_marker = 3;
whether to write a marker to WAL even if not flushed
- hasWriteFlushWalMarker() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequestOrBuilder
-
optional bool write_flush_wal_marker = 3;
whether to write a marker to WAL even if not flushed
- hasWriteNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_num = 3;
- hasWriteNum() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota write_num = 3;
- hasWriteNum() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota write_num = 3;
- hasWriterClsName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional string writer_cls_name = 4;
- hasWriterClsName() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader
-
optional string writer_cls_name = 4;
- hasWriterClsName() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeaderOrBuilder
-
optional string writer_cls_name = 4;
- hasWriteRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 write_requests_count = 9;
the current total write requests made to region
- hasWriteRequestsCount() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
optional uint64 write_requests_count = 9;
the current total write requests made to region
- hasWriteRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoadOrBuilder
-
optional uint64 write_requests_count = 9;
the current total write requests made to region
- hasWriteSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_size = 4;
- hasWriteSize() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle
-
optional .hbase.pb.TimedQuota write_size = 4;
- hasWriteSize() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleOrBuilder
-
optional .hbase.pb.TimedQuota write_size = 4;
- hasWriteTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required uint64 write_time = 4;
- hasWriteTime() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
required uint64 write_time = 4;
- hasWriteTime() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKeyOrBuilder
-
required uint64 write_time = 4;
- hasWroteFlushWalMarker() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
optional bool wrote_flush_wal_marker = 3;
- hasWroteFlushWalMarker() - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse
-
optional bool wrote_flush_wal_marker = 3;
- hasWroteFlushWalMarker() - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponseOrBuilder
-
optional bool wrote_flush_wal_marker = 3;
- HBASE_AUTH_TOKEN_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Kind
-
HBASE_AUTH_TOKEN = 0;
- HBASE_VERSION_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus
-
- HBASE_VERSION_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.Option
-
HBASE_VERSION = 0;
- HBaseProtos - org.apache.hadoop.hbase.protobuf.generated中的类
-
- HBaseProtos.BigDecimalMsg - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.BigDecimalMsg
- HBaseProtos.BigDecimalMsg.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.BigDecimalMsg
- HBaseProtos.BigDecimalMsgOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.BytesBytesPair - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.BytesBytesPair
- HBaseProtos.BytesBytesPair.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.BytesBytesPair
- HBaseProtos.BytesBytesPairOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.ColumnFamilySchema - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.ColumnFamilySchema
Column Family Schema
Inspired by the rest ColumSchemaMessage
- HBaseProtos.ColumnFamilySchema.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.ColumnFamilySchema
Column Family Schema
Inspired by the rest ColumSchemaMessage
- HBaseProtos.ColumnFamilySchemaOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.ColumnFamilyTimeRange - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.ColumnFamilyTimeRange
ColumnFamily Specific TimeRange
- HBaseProtos.ColumnFamilyTimeRange.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.ColumnFamilyTimeRange
ColumnFamily Specific TimeRange
- HBaseProtos.ColumnFamilyTimeRangeOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.CompareType - org.apache.hadoop.hbase.protobuf.generated中的枚举
-
Protobuf enum hbase.pb.CompareType
Comparison operators
- HBaseProtos.Coprocessor - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.Coprocessor
- HBaseProtos.Coprocessor.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.Coprocessor
- HBaseProtos.CoprocessorOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.DoubleMsg - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.DoubleMsg
- HBaseProtos.DoubleMsg.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.DoubleMsg
- HBaseProtos.DoubleMsgOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.EmptyMsg - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.EmptyMsg
- HBaseProtos.EmptyMsg.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.EmptyMsg
- HBaseProtos.EmptyMsgOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.FavoredNodes - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.FavoredNodes
Protocol buffer for favored nodes
- HBaseProtos.FavoredNodes.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.FavoredNodes
Protocol buffer for favored nodes
- HBaseProtos.FavoredNodesOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.LongMsg - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.LongMsg
- HBaseProtos.LongMsg.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.LongMsg
- HBaseProtos.LongMsgOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.NameBytesPair - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.NameBytesPair
- HBaseProtos.NameBytesPair.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.NameBytesPair
- HBaseProtos.NameBytesPairOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.NameInt64Pair - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.NameInt64Pair
- HBaseProtos.NameInt64Pair.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.NameInt64Pair
- HBaseProtos.NameInt64PairOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.NamespaceDescriptor - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.NamespaceDescriptor
- HBaseProtos.NamespaceDescriptor.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.NamespaceDescriptor
- HBaseProtos.NamespaceDescriptorOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.NameStringPair - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.NameStringPair
- HBaseProtos.NameStringPair.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.NameStringPair
- HBaseProtos.NameStringPairOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.ProcedureDescription - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.ProcedureDescription
Description of the distributed procedure to take
- HBaseProtos.ProcedureDescription.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.ProcedureDescription
Description of the distributed procedure to take
- HBaseProtos.ProcedureDescriptionOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.RegionInfo - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.RegionInfo
Protocol buffer version of HRegionInfo.
- HBaseProtos.RegionInfo.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.RegionInfo
Protocol buffer version of HRegionInfo.
- HBaseProtos.RegionInfoOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.RegionServerInfo - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.RegionServerInfo
Description of the region server info
- HBaseProtos.RegionServerInfo.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.RegionServerInfo
Description of the region server info
- HBaseProtos.RegionServerInfoOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.RegionSpecifier - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.RegionSpecifier
Container protocol buffer to specify a region.
- HBaseProtos.RegionSpecifier.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.RegionSpecifier
Container protocol buffer to specify a region.
- HBaseProtos.RegionSpecifier.RegionSpecifierType - org.apache.hadoop.hbase.protobuf.generated中的枚举
-
Protobuf enum hbase.pb.RegionSpecifier.RegionSpecifierType
- HBaseProtos.RegionSpecifierOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.ServerName - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.ServerName
Protocol buffer version of ServerName
- HBaseProtos.ServerName.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.ServerName
Protocol buffer version of ServerName
- HBaseProtos.ServerNameOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.SnapshotDescription - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotDescription
Description of the snapshot to take
- HBaseProtos.SnapshotDescription.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotDescription
Description of the snapshot to take
- HBaseProtos.SnapshotDescription.Type - org.apache.hadoop.hbase.protobuf.generated中的枚举
-
Protobuf enum hbase.pb.SnapshotDescription.Type
- HBaseProtos.SnapshotDescriptionOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.TableSchema - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.TableSchema
Table Schema
Inspired by the rest TableSchema
- HBaseProtos.TableSchema.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.TableSchema
Table Schema
Inspired by the rest TableSchema
- HBaseProtos.TableSchemaOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.TableState - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.TableState
Denotes state of the table
- HBaseProtos.TableState.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.TableState
Denotes state of the table
- HBaseProtos.TableState.State - org.apache.hadoop.hbase.protobuf.generated中的枚举
-
Protobuf enum hbase.pb.TableState.State
Table's current state
- HBaseProtos.TableStateOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.TimeRange - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.TimeRange
A range of time.
- HBaseProtos.TimeRange.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.TimeRange
A range of time.
- HBaseProtos.TimeRangeOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.TimeUnit - org.apache.hadoop.hbase.protobuf.generated中的枚举
-
Protobuf enum hbase.pb.TimeUnit
- HBaseProtos.UUID - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.UUID
- HBaseProtos.UUID.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.UUID
- HBaseProtos.UUIDOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseProtos.VersionInfo - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.VersionInfo
Rpc client version info proto.
- HBaseProtos.VersionInfo.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.VersionInfo
Rpc client version info proto.
- HBaseProtos.VersionInfoOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HBaseZeroCopyByteString - com.google.protobuf中的类
-
Helper class to extract byte arrays from ByteString without copy.
- HEAPOCCUPANCY_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats
-
- HEARTBEAT_MESSAGE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- hello(RpcController, PingProtos.HelloRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingService.BlockingInterface
-
- hello(RpcController, PingProtos.HelloRequest, RpcCallback<PingProtos.HelloResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingService
-
rpc hello(.HelloRequest) returns (.HelloResponse);
- hello(RpcController, PingProtos.HelloRequest, RpcCallback<PingProtos.HelloResponse>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingService.Interface
-
rpc hello(.HelloRequest) returns (.HelloResponse);
- hello(RpcController, PingProtos.HelloRequest, RpcCallback<PingProtos.HelloResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingService.Stub
-
- HFILE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo
-
- HFILE_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Type
-
HFILE = 1;
- HFileProtos - org.apache.hadoop.hbase.protobuf.generated中的类
-
- HFileProtos.FileInfoProto - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.FileInfoProto
Map of name/values
- HFileProtos.FileInfoProto.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.FileInfoProto
Map of name/values
- HFileProtos.FileInfoProtoOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HFileProtos.FileTrailerProto - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.FileTrailerProto
HFile file trailer
- HFileProtos.FileTrailerProto.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.FileTrailerProto
HFile file trailer
- HFileProtos.FileTrailerProtoOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- HOST_NAME_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
- HOSTNAME_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
- HOURS_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeUnit
-
HOURS = 6;
- scan(RpcController, ClientProtos.ScanRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService.BlockingInterface
-
- scan(RpcController, ClientProtos.ScanRequest, RpcCallback<ClientProtos.ScanResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService.Interface
-
rpc Scan(.hbase.pb.ScanRequest) returns (.hbase.pb.ScanResponse);
- scan(RpcController, ClientProtos.ScanRequest, RpcCallback<ClientProtos.ScanResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService
-
rpc Scan(.hbase.pb.ScanRequest) returns (.hbase.pb.ScanResponse);
- scan(RpcController, ClientProtos.ScanRequest, RpcCallback<ClientProtos.ScanResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ClientService.Stub
-
- SCAN_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
- SCAN_METRICS_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- SCANNER_ID_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest
-
- SCANNER_ID_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- SCOPE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
- SCOPE_TYPE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope
-
- SCOPES_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey
-
- SECOND_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair
-
- SECONDS_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeUnit
-
SECONDS = 4;
- SEQUENCE_ID_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId
-
- SEQUENCE_NUMBER_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier
-
- SERIALIZED_COMPARATOR_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator
-
- SERIALIZED_FILTER_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter
-
- SERVER_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
- SERVER_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
- SERVER_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
- SERVER_INFO_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse
-
- SERVER_LOAD_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo
-
- SERVER_NAME_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo
-
- SERVER_NAME_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
- SERVERS_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo
-
- SERVERSTARTCODE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest
-
- SERVERSTARTCODE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest
-
- SERVICE_CALL_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action
-
- SERVICE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token
-
- SERVICE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken
-
- SERVICE_NAME_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall
-
- SERVICE_NAME_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader
-
- SERVICE_RESULT_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException
-
- setAction(int, AccessControlProtos.Permission.Action) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GlobalPermission.Builder
-
repeated .hbase.pb.Permission.Action action = 1;
- setAction(int, AccessControlProtos.Permission.Action) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission.Builder
-
repeated .hbase.pb.Permission.Action action = 2;
- setAction(int, AccessControlProtos.Permission.Action) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
repeated .hbase.pb.Permission.Action action = 4;
- setAction(int, ClientProtos.Action) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
repeated .hbase.pb.Action action = 3;
- setAction(int, ClientProtos.Action.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
repeated .hbase.pb.Action action = 3;
- setAction(WALProtos.FlushDescriptor.FlushAction) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
required .hbase.pb.FlushDescriptor.FlushAction action = 1;
- setAddr(String) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto.Builder
-
required string addr = 1;
- setAddrBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.AddrResponseProto.Builder
-
required string addr = 1;
- setAgeOfLastAppliedOp(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink.Builder
-
required uint64 ageOfLastAppliedOp = 1;
- setAgeOfLastShippedOp(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint64 ageOfLastShippedOp = 2;
- setAlgorithm(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required string algorithm = 1;
- setAlgorithmBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required string algorithm = 1;
- setAllowPartialResults(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool allow_partial_results = 18;
- setAssignSeqNum(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional bool assign_seq_num = 3;
- setAssociatedCellCount(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
optional int32 associated_cell_count = 3;
If Cell data is carried alongside in a cellblock, this is count of Cells in the cellblock.
- setAssociatedCellCount(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional int32 associated_cell_count = 8;
The below count is set when the associated cells are NOT
part of this protobuf message; they are passed alongside
and then this Message is a placeholder with metadata.
- setAssociatedCellCount(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional int32 associated_cell_count = 2;
The below count is set when the associated cells are
not part of this protobuf message; they are passed alongside
and then this Message is just a placeholder with metadata.
- setAtomic(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
optional bool atomic = 2;
When set, run mutations as atomic unit.
- setAttribute(int, HBaseProtos.NameBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- setAttribute(int, HBaseProtos.NameBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 3;
- setAttribute(int, HBaseProtos.NameBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- setAttribute(int, HBaseProtos.NameBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 5;
- setAttribute(int, HBaseProtos.NameBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- setAttribute(int, HBaseProtos.NameBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.NameBytesPair attribute = 2;
- setAttributes(int, HBaseProtos.BytesBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- setAttributes(int, HBaseProtos.BytesBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- setAttributes(int, HBaseProtos.BytesBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- setAttributes(int, HBaseProtos.BytesBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.BytesBytesPair attributes = 2;
- setAuth(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse.Builder
-
repeated bytes auth = 2;
- setAuth(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest.Builder
-
repeated bytes auth = 2;
- setAuth(int, int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations.Builder
-
repeated uint32 auth = 2;
- setAuthMethod(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
optional string auth_method = 2;
- setAuthMethodBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
optional string auth_method = 2;
- setAuths(RpcController, VisibilityLabelsProtos.SetAuthsRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService.BlockingInterface
-
- setAuths(RpcController, VisibilityLabelsProtos.SetAuthsRequest, RpcCallback<VisibilityLabelsProtos.VisibilityLabelsResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService.Interface
-
rpc setAuths(.hbase.pb.SetAuthsRequest) returns (.hbase.pb.VisibilityLabelsResponse);
- setAuths(RpcController, VisibilityLabelsProtos.SetAuthsRequest, RpcCallback<VisibilityLabelsProtos.VisibilityLabelsResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService
-
rpc setAuths(.hbase.pb.SetAuthsRequest) returns (.hbase.pb.VisibilityLabelsResponse);
- setAuths(RpcController, VisibilityLabelsProtos.SetAuthsRequest, RpcCallback<VisibilityLabelsProtos.VisibilityLabelsResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsService.Stub
-
- setBackupMasters(int, HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- setBackupMasters(int, HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName backup_masters = 8;
- setBalancerOn(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional bool balancer_on = 9;
- setBalancerOn(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.LoadBalancerProtos.LoadBalancerState.Builder
-
optional bool balancer_on = 1;
- setBandwidth(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
optional int64 bandwidth = 7;
- setBatchSize(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 batch_size = 9;
- setBigdecimalMsg(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BigDecimalMsg.Builder
-
required bytes bigdecimal_msg = 1;
- setBitwiseOp(ComparatorProtos.BitComparator.BitwiseOp) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
required .hbase.pb.BitComparator.BitwiseOp bitwise_op = 2;
- setBulkloadSeqNum(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required int64 bulkload_seq_num = 4;
- setBulkToken(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional string bulk_token = 5;
- setBulkToken(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
required string bulk_token = 1;
- setBulkToken(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse.Builder
-
required string bulk_token = 1;
- setBulkTokenBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional string bulk_token = 5;
- setBulkTokenBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
required string bulk_token = 1;
- setBulkTokenBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadResponse.Builder
-
required string bulk_token = 1;
- setBypassGlobals(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional bool bypass_globals = 1 [default = false];
- setCacheBlocks(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool cache_blocks = 7 [default = true];
- setCacheBlocks(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool cache_blocks = 8 [default = true];
- setCaching(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 caching = 17;
- setCall(ClientProtos.CoprocessorServiceCall) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- setCall(ClientProtos.CoprocessorServiceCall.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.CoprocessorServiceCall call = 2;
- setCallId(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional uint32 call_id = 1;
Monotonically increasing call_id to keep track of RPC requests and their response
- setCallId(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional uint32 call_id = 1;
- setCanHint(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter.Builder
-
optional bool can_hint = 2;
- setCell(int, CellProtos.Cell) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- setCell(int, CellProtos.Cell.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
repeated .hbase.pb.Cell cell = 1;
Result includes the Cells or else it just has a count of Cells
that are carried otherwise.
- setCellBlockCodecClass(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- setCellBlockCodecClassBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string cell_block_codec_class = 3;
Cell block codec we will use sending over optional cell blocks.
- setCellBlockCompressorClass(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- setCellBlockCompressorClassBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string cell_block_compressor_class = 4;
Compressor we will use if cell block is compressed.
- setCellBlockMeta(RPCProtos.CellBlockMeta) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- setCellBlockMeta(RPCProtos.CellBlockMeta.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 5;
If present, then an encoded data block follows.
- setCellBlockMeta(RPCProtos.CellBlockMeta) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- setCellBlockMeta(RPCProtos.CellBlockMeta.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.CellBlockMeta cell_block_meta = 3;
If present, then an encoded data block follows.
- setCellCodecClsName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional string cell_codec_cls_name = 5;
- setCellCodecClsNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional string cell_codec_cls_name = 5;
- setCellsPerResult(int, int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated uint32 cells_per_result = 1;
This field is filled in if we are doing cellblocks.
- setCellType(CellProtos.CellType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional .hbase.pb.CellType cell_type = 5;
- setCfTimeRange(int, HBaseProtos.ColumnFamilyTimeRange) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- setCfTimeRange(int, HBaseProtos.ColumnFamilyTimeRange.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 13;
- setCfTimeRange(int, HBaseProtos.ColumnFamilyTimeRange) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- setCfTimeRange(int, HBaseProtos.ColumnFamilyTimeRange.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.ColumnFamilyTimeRange cf_time_range = 19;
- setChance(float) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RandomRowFilter.Builder
-
required float chance = 1;
- setCharset(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required string charset = 3;
- setCharsetBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required string charset = 3;
- setClassName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional string class_name = 1;
- setClassNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional string class_name = 1;
- setClientHandlesHeartbeats(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool client_handles_heartbeats = 8;
- setClientHandlesPartials(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool client_handles_partials = 7;
- setClosed(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionResponse.Builder
-
required bool closed = 1;
- setCloseScanner(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool close_scanner = 5;
- setClosestRowBefore(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool closest_row_before = 11 [default = false];
If the row to get doesn't exist, return the
closest row before.
- setClusterId(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId.Builder
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- setClusterId(ClusterIdProtos.ClusterId) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ClusterId cluster_id = 5;
- setClusterId(ClusterIdProtos.ClusterId.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ClusterId cluster_id = 5;
- setClusterId(HBaseProtos.UUID) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
已过时。
- setClusterId(HBaseProtos.UUID.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
已过时。
- setClusterIdBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterIdProtos.ClusterId.Builder
-
required string cluster_id = 1;
This is the cluster id, a uuid as a String
- setClusterIds(int, HBaseProtos.UUID) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- setClusterIds(int, HBaseProtos.UUID.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.UUID cluster_ids = 8;
This field contains the list of clusters that have
consumed the change
- setClusterkey(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- setClusterkeyBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
required string clusterkey = 1;
clusterkey is the concatenation of the slave cluster's
hbase.zookeeper.quorum:hbase.zookeeper.property.clientPort:zookeeper.znode.parent
- setColumn(int, ClientProtos.Column) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.Column column = 2;
- setColumn(int, ClientProtos.Column.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
repeated .hbase.pb.Column column = 2;
- setColumn(int, ClientProtos.Column) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.Column column = 1;
- setColumn(int, ClientProtos.Column.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
repeated .hbase.pb.Column column = 1;
- setColumnFamilies(int, HBaseProtos.ColumnFamilySchema) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- setColumnFamilies(int, HBaseProtos.ColumnFamilySchema.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.ColumnFamilySchema column_families = 3;
- setColumnFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
optional bytes column_family = 2;
- setColumnFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bytes column_family = 1;
- setColumnFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
required bytes column_family = 1;
- setColumnOffset(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
optional bytes column_offset = 3;
- setColumnQualifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
optional bytes column_qualifier = 3;
- setColumnQualifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bytes column_qualifier = 2;
- setColumnValue(int, ClientProtos.MutationProto.ColumnValue) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- setColumnValue(int, ClientProtos.MutationProto.ColumnValue.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue column_value = 3;
- setCompactionInput(int, String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
repeated string compaction_input = 4;
relative to store dir
- setCompactionOutput(int, String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
repeated string compaction_output = 5;
- setCompactionPressure(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
optional int32 compactionPressure = 3 [default = 0];
Compaction pressure.
- setCompactionState(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
optional bool compaction_state = 2;
- setCompactionState(AdminProtos.GetRegionInfoResponse.CompactionState) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
optional .hbase.pb.GetRegionInfoResponse.CompactionState compaction_state = 2;
optional bool DEPRECATED_isRecovering = 3;
- setComparable(ComparatorProtos.ByteArrayComparable) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- setComparable(ComparatorProtos.ByteArrayComparable.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BigDecimalComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- setComparable(ComparatorProtos.ByteArrayComparable) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- setComparable(ComparatorProtos.ByteArrayComparable.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- setComparable(ComparatorProtos.ByteArrayComparable) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- setComparable(ComparatorProtos.ByteArrayComparable.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BinaryPrefixComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- setComparable(ComparatorProtos.ByteArrayComparable) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- setComparable(ComparatorProtos.ByteArrayComparable.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.BitComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- setComparable(ComparatorProtos.ByteArrayComparable) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- setComparable(ComparatorProtos.ByteArrayComparable.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.LongComparator.Builder
-
required .hbase.pb.ByteArrayComparable comparable = 1;
- setComparator(ComparatorProtos.Comparator) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required .hbase.pb.Comparator comparator = 5;
- setComparator(ComparatorProtos.Comparator.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required .hbase.pb.Comparator comparator = 5;
- setComparator(ComparatorProtos.Comparator) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- setComparator(ComparatorProtos.Comparator.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- setComparator(ComparatorProtos.Comparator) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
optional .hbase.pb.Comparator comparator = 2;
- setComparator(ComparatorProtos.Comparator.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
optional .hbase.pb.Comparator comparator = 2;
- setComparator(ComparatorProtos.Comparator) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- setComparator(ComparatorProtos.Comparator.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
required .hbase.pb.Comparator comparator = 4;
- setComparatorClassName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional string comparator_class_name = 11;
- setComparatorClassNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional string comparator_class_name = 11;
- setCompareFilter(FilterProtos.CompareFilter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- setCompareFilter(FilterProtos.CompareFilter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- setCompareFilter(FilterProtos.CompareFilter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- setCompareFilter(FilterProtos.CompareFilter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FamilyFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- setCompareFilter(FilterProtos.CompareFilter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- setCompareFilter(FilterProtos.CompareFilter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.QualifierFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- setCompareFilter(FilterProtos.CompareFilter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- setCompareFilter(FilterProtos.CompareFilter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- setCompareFilter(FilterProtos.CompareFilter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- setCompareFilter(FilterProtos.CompareFilter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ValueFilter.Builder
-
required .hbase.pb.CompareFilter compare_filter = 1;
- setCompareOp(HBaseProtos.CompareType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required .hbase.pb.CompareType compare_op = 3;
- setCompareOp(HBaseProtos.CompareType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.CompareFilter.Builder
-
required .hbase.pb.CompareType compare_op = 1;
- setCompareOp(HBaseProtos.CompareType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
required .hbase.pb.CompareType compare_op = 3;
- setCompareType(HBaseProtos.CompareType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required .hbase.pb.CompareType compare_type = 4;
- setCompleteSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 complete_sequence_id = 15;
the most recent sequence Id from cache flush
- setCompressionCodec(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 compression_codec = 12;
- setCondition(ClientProtos.Condition) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- setCondition(ClientProtos.Condition.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- setCondition(ClientProtos.Condition) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- setCondition(ClientProtos.Condition.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
optional .hbase.pb.Condition condition = 3;
- setConfiguration(int, HBaseProtos.NameStringPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- setConfiguration(int, HBaseProtos.NameStringPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 3;
- setConfiguration(int, HBaseProtos.NameStringPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- setConfiguration(int, HBaseProtos.NameStringPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
repeated .hbase.pb.NameStringPair configuration = 2;
- setConfiguration(int, HBaseProtos.NameStringPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- setConfiguration(int, HBaseProtos.NameStringPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- setConfiguration(int, HBaseProtos.NameStringPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- setConfiguration(int, HBaseProtos.NameStringPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- setConfiguration(int, HBaseProtos.NameStringPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- setConfiguration(int, HBaseProtos.NameStringPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.NameStringPair configuration = 4;
- setConsistency(ClientProtos.Consistency) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.Consistency consistency = 12 [default = STRONG];
- setConsistency(ClientProtos.Consistency) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Consistency consistency = 16 [default = STRONG];
- setCoprocessors(int, HBaseProtos.Coprocessor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- setCoprocessors(int, HBaseProtos.Coprocessor.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.Coprocessor coprocessors = 6;
Regionserver-level coprocessors, e.g., WALObserver implementations.
- setCopyFile(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional bool copy_file = 6 [default = false];
- setCount(int) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.CountResponse.Builder
-
required int32 count = 1;
- setCount(int) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountResponse.Builder
-
required int32 count = 1;
- setCreationTime(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
optional int64 creation_time = 3 [default = 0];
- setCreationTime(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional int64 creation_time = 3 [default = 0];
- setCurrentCompactedKVs(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 current_compacted_KVs = 11;
the completed count of key values in currently running compaction
- setCursor(ClientProtos.Cursor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- setCursor(ClientProtos.Cursor.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.Cursor cursor = 12;
If the Scan need cursor, return the row key we are scanning in heartbeat message.
- setData(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required bytes data = 3;
- setData(int, HBaseProtos.BytesBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- setData(int, HBaseProtos.BytesBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.BytesBytesPair data = 3;
- setDataIndexCount(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 data_index_count = 5;
- setDataLocality(float) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional float data_locality = 16;
The current data locality for region in the regionserver
- setDate(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string date = 5;
- setDateBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string date = 5;
- setDeadServers(int, HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- setDeadServers(int, HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.ServerName dead_servers = 3;
- setDeclaringClass(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string declaring_class = 1;
- setDeclaringClassBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string declaring_class = 1;
- setDeleteType(ClientProtos.MutationProto.DeleteType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional .hbase.pb.MutationProto.DeleteType delete_type = 4;
- setDestinationServer(HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional .hbase.pb.ServerName destination_server = 4;
- setDestinationServer(HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional .hbase.pb.ServerName destination_server = 4;
- setDiff(int) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.IncrementCountRequest.Builder
-
required int32 diff = 1;
- setDoNotRetry(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional bool do_not_retry = 5;
Set if we are NOT to retry on receipt of this exception
- setDoubleMsg(double) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.DoubleMsg.Builder
-
required double double_msg = 1;
- setDropDependentColumn(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.DependentColumnFilter.Builder
-
optional bool drop_dependent_column = 4;
- setDurability(ClientProtos.MutationProto.Durability) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.MutationProto.Durability durability = 6 [default = USE_DEFAULT];
- setEffectiveUser(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
required string effective_user = 1;
- setEffectiveUserBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
required string effective_user = 1;
- setEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SwitchState.Builder
-
optional bool enabled = 1;
- setEncodedRegionName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required bytes encoded_region_name = 2;
- setEncodedRegionName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required bytes encoded_region_name = 2;
- setEncodedRegionName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
required bytes encoded_region_name = 3;
- setEncodedRegionName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
required bytes encoded_region_name = 3;
- setEncodedRegionName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required bytes encoded_region_name = 1;
- setEncryptionKey(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional bytes encryption_key = 13;
- setEncryptionKey(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional bytes encryption_key = 2;
- setEndKey(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bytes end_key = 4;
- setEngine(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
optional string engine = 4;
- setEngineBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
optional string engine = 4;
- setEntry(int, AdminProtos.WALEntry) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
repeated .hbase.pb.WALEntry entry = 1;
- setEntry(int, AdminProtos.WALEntry.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
repeated .hbase.pb.WALEntry entry = 1;
- setEntryCount(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 entry_count = 7;
- setErrorInfo(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional bytes error_info = 3;
- setEventType(WALProtos.RegionEventDescriptor.EventType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
required .hbase.pb.RegionEventDescriptor.EventType event_type = 1;
- setException(HBaseProtos.NameBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- setException(HBaseProtos.NameBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
optional .hbase.pb.NameBytesPair exception = 2;
If the operation failed globally for this region, this exception is set
- setException(HBaseProtos.NameBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.NameBytesPair exception = 3;
- setException(HBaseProtos.NameBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.NameBytesPair exception = 3;
- setException(RPCProtos.ExceptionResponse) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- setException(RPCProtos.ExceptionResponse.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ResponseHeader.Builder
-
optional .hbase.pb.ExceptionResponse exception = 2;
If present, then request threw an exception and no response message (else we presume one)
- setExceptionClassName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- setExceptionClassNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string exception_class_name = 1;
Class name of the exception thrown from the server
- setExistenceOnly(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool existence_only = 10 [default = false];
The result isn't asked for, just check for
the existence.
- setExists(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional bool exists = 3;
used for Get to check existence only.
- setExpirationDate(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
required int64 expiration_date = 2;
- setExpirationDate(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
optional int64 expiration_date = 5;
- setExpression(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility.Builder
-
required string expression = 1;
- setExpressionBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CellVisibility.Builder
-
required string expression = 1;
- setFamilies(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
repeated bytes families = 2;
- setFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional bytes family = 2;
- setFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
optional bytes family = 3;
- setFamily(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
repeated bytes family = 2;
- setFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes family = 2;
- setFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
required bytes family = 2;
- setFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
required bytes family = 1;
- setFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column.Builder
-
required bytes family = 1;
- setFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required bytes family = 2;
- setFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
required bytes family = 1;
- setFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required bytes family = 1;
- setFamily(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope.Builder
-
required bytes family = 1;
- setFamilyFiles(int, SnapshotProtos.SnapshotRegionManifest.FamilyFiles) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- setFamilyFiles(int, SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.FamilyFiles family_files = 3;
- setFamilyName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId.Builder
-
required bytes family_name = 1;
- setFamilyName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
required bytes family_name = 1;
- setFamilyName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required bytes family_name = 3;
- setFamilyName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
required bytes family_name = 1;
- setFamilyName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
required bytes family_name = 1;
- setFamilyPath(int, ClientProtos.BulkLoadHFileRequest.FamilyPath) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- setFamilyPath(int, ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
repeated .hbase.pb.BulkLoadHFileRequest.FamilyPath family_path = 2;
- setFavoredNode(int, HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
repeated .hbase.pb.ServerName favored_node = 1;
- setFavoredNode(int, HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.FavoredNodes.Builder
-
repeated .hbase.pb.ServerName favored_node = 1;
- setFavoredNodes(int, HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- setFavoredNodes(int, HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 3;
open region for distributedLogReplay
optional bool DEPRECATED_openForDistributedLogReplay = 4;
- setFavoredNodes(int, HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- setFavoredNodes(int, HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
repeated .hbase.pb.ServerName favored_nodes = 2;
- setFileInfoOffset(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 file_info_offset = 1;
- setFileName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string file_name = 3;
- setFileNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string file_name = 3;
- setFileSize(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
optional uint64 file_size = 3;
TODO: Add checksums or other fields to verify the file
- setFilter(FilterProtos.Filter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.Filter filter = 4;
- setFilter(FilterProtos.Filter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.Filter filter = 4;
- setFilter(FilterProtos.Filter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Filter filter = 5;
- setFilter(FilterProtos.Filter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Filter filter = 5;
- setFilter(FilterProtos.Filter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper.Builder
-
required .hbase.pb.Filter filter = 1;
- setFilter(FilterProtos.Filter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterWrapper.Builder
-
required .hbase.pb.Filter filter = 1;
- setFilter(FilterProtos.Filter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- setFilter(FilterProtos.Filter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SkipFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- setFilter(FilterProtos.Filter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- setFilter(FilterProtos.Filter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.WhileMatchFilter.Builder
-
required .hbase.pb.Filter filter = 1;
- setFilteredReadRequestsCount(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 filtered_read_requests_count = 19;
the current total filtered read requests made to region
- setFilterIfMissing(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bool filter_if_missing = 5;
- setFilters(int, FilterProtos.Filter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
repeated .hbase.pb.Filter filters = 2;
- setFilters(int, FilterProtos.Filter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
repeated .hbase.pb.Filter filters = 2;
- setFirst(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair.Builder
-
required bytes first = 1;
- setFirstDataBlockOffset(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 first_data_block_offset = 9;
- setFlushed(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
optional bool flushed = 2;
- setFlushOutput(int, String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
repeated string flush_output = 3;
relative to store dir (if this is a COMMIT_FLUSH)
- setFlushSequenceNumber(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
optional uint64 flush_sequence_number = 4;
- setFollowingKvCount(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint32 following_kv_count = 7;
- setForcible(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
optional bool forcible = 3 [default = false];
- setFrom(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange.Builder
-
optional uint64 from = 1;
- setFsToken(ClientProtos.DelegationToken) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional .hbase.pb.DelegationToken fs_token = 4;
- setFsToken(ClientProtos.DelegationToken.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
optional .hbase.pb.DelegationToken fs_token = 4;
- setFuzzyKeysData(int, HBaseProtos.BytesBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- setFuzzyKeysData(int, HBaseProtos.BytesBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FuzzyRowFilter.Builder
-
repeated .hbase.pb.BytesBytesPair fuzzy_keys_data = 1;
- setGenericException(ErrorHandlingProtos.GenericExceptionMessage) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- setGenericException(ErrorHandlingProtos.GenericExceptionMessage.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional .hbase.pb.GenericExceptionMessage generic_exception = 2;
- setGet(ClientProtos.Get) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.Get get = 3;
- setGet(ClientProtos.Get.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.Get get = 3;
- setGet(ClientProtos.Get) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.Get get = 2;
- setGet(ClientProtos.Get.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.Get get = 2;
- setGlobalPermission(AccessControlProtos.GlobalPermission) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- setGlobalPermission(AccessControlProtos.GlobalPermission.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.GlobalPermission global_permission = 2;
- setHasCompression(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional bool has_compression = 1;
- setHash(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
optional bytes hash = 5;
- setHasTagCompression(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional bool has_tag_compression = 3;
- setHbaseVersion(FSProtos.HBaseVersionFileContent) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- setHbaseVersion(FSProtos.HBaseVersionFileContent.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.HBaseVersionFileContent hbase_version = 1;
- setHeapOccupancy(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
optional int32 heapOccupancy = 2 [default = 0];
Percent JVM heap occupancy.
- setHeartbeatMessage(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool heartbeat_message = 9;
This field is filled in if the server is sending back a heartbeat message.
- setHfile(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string hfile = 3;
- setHfileBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string hfile = 3;
- setHostName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
required string host_name = 1;
- setHostname(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string hostname = 3;
Optional hostname.
- setHostNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
required string host_name = 1;
- setHostnameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string hostname = 3;
Optional hostname.
- setId(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
required int32 id = 1;
- setIdentifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
optional bytes identifier = 1;
the TokenIdentifier in serialized form
Note: we can't use the protobuf directly because the Hadoop Token class
only stores the serialized bytes
- setIdentifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional bytes identifier = 1;
- setIfOlderThanTs(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
optional uint64 if_older_than_ts = 2;
- setIncludeStartRow(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool include_start_row = 21 [default = true];
- setIncludeStopRow(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool include_stop_row = 22 [default = false];
- setIndex(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional uint32 index = 1;
If part of a multi action, useful aligning
result with what was originally submitted.
- setIndex(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional uint32 index = 1;
If part of a multi call, save original index of the list of all
passed so can align this response w/ original request.
- setInfoPort(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
optional int32 infoPort = 1;
- setInfoPort(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
optional uint32 info_port = 3;
- setInfoServerPort(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint32 info_server_port = 9;
The port number that this region server is hosing an info server on.
- setInstance(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
optional string instance = 2;
the procedure instance name
- setInstanceBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
optional string instance = 2;
the procedure instance name
- setInViolation(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus.Builder
-
optional bool in_violation = 2;
- setIssueDate(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
optional int64 issue_date = 4;
- setIv(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
optional bytes iv = 4;
- setKey(WALProtos.WALKey) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
required .hbase.pb.WALKey key = 1;
- setKey(WALProtos.WALKey.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
required .hbase.pb.WALKey key = 1;
- setKey(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.AuthenticationKey.Builder
-
required bytes key = 3;
- setKeyId(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
required int32 key_id = 3;
- setKeyType(CellProtos.CellType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional .hbase.pb.CellType key_type = 5;
- setKeyValueBytes(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WALEntry.Builder
-
repeated bytes key_value_bytes = 2;
Following may be null if the KVs/Cells are carried along the side in a cellblock (See
RPC for more on cellblocks).
- setKind(AuthenticationProtos.TokenIdentifier.Kind) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
required .hbase.pb.TokenIdentifier.Kind kind = 1;
- setKind(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional string kind = 3;
- setKindBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional string kind = 3;
- setLabel(int, String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Authorizations.Builder
-
repeated string label = 1;
- setLabel(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsResponse.Builder
-
repeated bytes label = 1;
- setLabel(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel.Builder
-
required bytes label = 1;
- setLastDataBlockOffset(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 last_data_block_offset = 10;
- setLastFlushedSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
required uint64 last_flushed_sequence_id = 1;
- setLastFlushTime(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
required uint64 last_flush_time = 1;
- setLastMajorCompactionTs(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 last_major_compaction_ts = 17 [default = 0];
- setLatestVersionOnly(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueFilter.Builder
-
optional bool latest_version_only = 6;
- setLeastSigBits(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID.Builder
-
required uint64 least_sig_bits = 1;
- setLenAsVal(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.KeyOnlyFilter.Builder
-
required bool len_as_val = 1;
- setLength(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.EncryptionProtos.WrappedKey.Builder
-
required uint32 length = 2;
- setLength(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.CellBlockMeta.Builder
-
optional uint32 length = 1;
Length of the following cell block.
- setLimit(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnCountGetFilter.Builder
-
required int32 limit = 1;
- setLimit(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
required int32 limit = 1;
- setLimitOfRows(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint32 limit_of_rows = 11 [default = 0];
if we have returned limit_of_rows rows to client, then close the scanner.
- setLineNumber(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional int32 line_number = 4;
- setLiveServers(int, ClusterStatusProtos.LiveServerInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- setLiveServers(int, ClusterStatusProtos.LiveServerInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.LiveServerInfo live_servers = 2;
- setLoadColumnFamiliesOnDemand(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional bool load_column_families_on_demand = 14;
DO NOT add defaults to load_column_families_on_demand.
- setLoadColumnFamiliesOnDemand(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool load_column_families_on_demand = 13;
DO NOT add defaults to load_column_families_on_demand.
- setLoaded(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileResponse.Builder
-
required bool loaded = 1;
- setLoadOnOpenDataOffset(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 load_on_open_data_offset = 2;
- setLoadStats(ClientProtos.RegionLoadStats) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
已过时。
- setLoadStats(ClientProtos.RegionLoadStats.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
已过时。
- setLocations(int, String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
repeated string locations = 2;
- setLogSequenceNumber(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional uint64 log_sequence_number = 4;
- setLogSequenceNumber(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required uint64 log_sequence_number = 3;
- setLongMsg(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.LongMsg.Builder
-
required int64 long_msg = 1;
- setMajor(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
optional bool major = 2;
- setMapEntry(int, HBaseProtos.BytesBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- setMapEntry(int, HBaseProtos.BytesBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileInfoProto.Builder
-
repeated .hbase.pb.BytesBytesPair map_entry = 1;
- setMaster(HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ServerName master = 7;
- setMaster(HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
optional .hbase.pb.ServerName master = 7;
- setMaster(HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- setMaster(HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
required .hbase.pb.ServerName master = 1;
The ServerName of the current Master
- setMasterCoprocessors(int, HBaseProtos.Coprocessor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- setMasterCoprocessors(int, HBaseProtos.Coprocessor.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.Coprocessor master_coprocessors = 6;
- setMasterSystemTime(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
optional uint64 master_system_time = 4;
wall clock time from master
- setMasterSystemTime(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
optional uint64 master_system_time = 5;
wall clock time from master
- setMaxColumn(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bytes max_column = 3;
- setMaxColumnInclusive(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bool max_column_inclusive = 4;
- setMaxHeapMB(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint32 max_heap_MB = 4;
the maximum allowable size of the heap, in MB.
- setMaxResultSize(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint64 max_result_size = 10;
- setMaxVersions(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional uint32 max_versions = 6 [default = 1];
- setMaxVersions(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 max_versions = 7 [default = 1];
- setMemStoreLoad(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionLoadStats.Builder
-
optional int32 memStoreLoad = 1 [default = 0];
Percent load on the memstore.
- setMemstoreSizeMB(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 memstore_size_MB = 6;
the current size of the memstore for the region, in MB
- setMergeExistingPermissions(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
optional bool merge_existing_permissions = 2 [default = false];
- setMessage(String) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto.Builder
-
required string message = 1;
- setMessage(String) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto.Builder
-
required string message = 1;
- setMessage(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional string message = 2;
- setMessageBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoRequestProto.Builder
-
required string message = 1;
- setMessageBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.EchoResponseProto.Builder
-
required string message = 1;
- setMessageBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
optional string message = 2;
- setMetaIndexCount(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 meta_index_count = 6;
- setMethodName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required string method_name = 3;
- setMethodName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string method_name = 2;
- setMethodName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional string method_name = 3;
- setMethodNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required string method_name = 3;
- setMethodNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.StackTraceElementMessage.Builder
-
optional string method_name = 2;
- setMethodNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional string method_name = 3;
- setMetrics(int, HBaseProtos.NameInt64Pair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- setMetrics(int, HBaseProtos.NameInt64Pair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.ScanMetrics.Builder
-
repeated .hbase.pb.NameInt64Pair metrics = 1;
- setMinColumn(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bytes min_column = 1;
- setMinColumnInclusive(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnRangeFilter.Builder
-
optional bool min_column_inclusive = 2;
- setMoreResults(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool more_results = 3;
- setMoreResultsInRegion(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool more_results_in_region = 8;
A server may choose to limit the number of results returned to the client for
reasons such as the size in bytes or quantity of results accumulated.
- setMostSigBits(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.UUID.Builder
-
required uint64 most_sig_bits = 2;
- setMs(int) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProtos.PauseRequestProto.Builder
-
required uint32 ms = 1;
- setMutateType(ClientProtos.MutationProto.MutationType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.MutationProto.MutationType mutate_type = 2;
- setMutation(ClientProtos.MutationProto) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.MutationProto mutation = 2;
- setMutation(ClientProtos.MutationProto.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.MutationProto mutation = 2;
- setMutation(ClientProtos.MutationProto) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.MutationProto mutation = 2;
- setMutation(ClientProtos.MutationProto.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.MutationProto mutation = 2;
- setMutationRequest(int, ClientProtos.MutationProto) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- setMutationRequest(int, ClientProtos.MutationProto.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
repeated .hbase.pb.MutationProto mutation_request = 1;
- setMvccReadPoint(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint64 mvcc_read_point = 20 [default = 0];
- setMvccReadPoint(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional uint64 mvcc_read_point = 11 [default = 0];
The mvcc read point which is used to open the scanner at server side.
- setName(String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest.Builder
-
optional string name = 1;
- setName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
required string name = 1;
- setName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
required string name = 1;
- setName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilySchema.Builder
-
required bytes name = 1;
- setName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor.Builder
-
required string name = 1;
- setName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
required string name = 1;
- setName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
optional string name = 1;
- setName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NamespaceDescriptor.Builder
-
required bytes name = 1;
- setName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
required string name = 1;
- setName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
required string name = 1;
- setName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
required string name = 1;
- setName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
required string name = 1;
- setNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloRequest.Builder
-
optional string name = 1;
- setNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
required string name = 1;
- setNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
required string name = 1;
- setNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.Coprocessor.Builder
-
required string name = 1;
- setNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
required string name = 1;
- setNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
optional string name = 1;
- setNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
required string name = 1;
- setNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
required string name = 1;
- setNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
required string name = 1;
- setNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
required string name = 1;
- setNamespace(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName.Builder
-
required bytes namespace = 1;
- setNamespaceName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional bytes namespace_name = 3;
- setNamespaceName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.NamespacePermission.Builder
-
optional bytes namespace_name = 1;
- setNamespacePermission(AccessControlProtos.NamespacePermission) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- setNamespacePermission(AccessControlProtos.NamespacePermission.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.NamespacePermission namespace_permission = 3;
- setNamespaces(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated bytes namespaces = 6;
- setNeedCursorResult(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool need_cursor_result = 24 [default = false];
- setNextCallSeq(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint64 next_call_seq = 6;
- setNonce(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional uint64 nonce = 9;
- setNonce(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional uint64 nonce = 3;
- setNonce(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional uint64 nonce = 5;
- setNonce(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint64 nonce = 10;
- setNonceGroup(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
optional uint64 nonceGroup = 2;
- setNonceGroup(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
optional uint64 nonce_group = 4;
- setNonceGroup(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional uint64 nonce_group = 2;
- setNonceGroup(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional uint64 nonce_group = 4;
- setNonceGroup(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint64 nonceGroup = 9;
- setNumberOfRequests(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 number_of_requests = 1;
Number of requests since last report.
- setNumberOfRows(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint32 number_of_rows = 4;
- setNumDataIndexLevels(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint32 num_data_index_levels = 8;
- setOffline(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bool offline = 5;
- setOffset(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPaginationFilter.Builder
-
optional int32 offset = 2;
- setOpenInfo(int, AdminProtos.OpenRegionRequest.RegionOpenInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- setOpenInfo(int, AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
repeated .hbase.pb.OpenRegionRequest.RegionOpenInfo open_info = 1;
- setOpeningState(int, AdminProtos.OpenRegionResponse.RegionOpeningState) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionResponse.Builder
-
repeated .hbase.pb.OpenRegionResponse.RegionOpeningState opening_state = 1;
- setOperator(FilterProtos.FilterList.Operator) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FilterList.Builder
-
required .hbase.pb.FilterList.Operator operator = 1;
- setOrdinal(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabel.Builder
-
optional uint32 ordinal = 2;
- setOrigSequenceNumber(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
optional uint64 orig_sequence_number = 11;
- setOwner(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional string owner = 6;
- setOwnerBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional string owner = 6;
- setPageSize(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PageFilter.Builder
-
required int64 page_size = 1;
- setParentId(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo.Builder
-
optional int64 parent_id = 2;
- setPartial(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional bool partial = 5 [default = false];
Whether or not the entire result could be returned.
- setPartialFlagPerResult(int, boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated bool partial_flag_per_result = 7;
This field is filled in if we are doing cellblocks.
- setPassword(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
optional bytes password = 2;
- setPassword(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional bytes password = 2;
- setPath(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
required string path = 2;
- setPathBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.FamilyPath.Builder
-
required string path = 2;
- setPattern(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required string pattern = 1;
- setPatternBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required string pattern = 1;
- setPatternFlags(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.RegexStringComparator.Builder
-
required int32 pattern_flags = 2;
- setPeerID(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required string peerID = 1;
- setPeerIDBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required string peerID = 1;
- setPermission(int, AccessControlProtos.Permission) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
repeated .hbase.pb.Permission permission = 1;
- setPermission(int, AccessControlProtos.Permission.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.CheckPermissionsRequest.Builder
-
repeated .hbase.pb.Permission permission = 1;
- setPermission(AccessControlProtos.Permission) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
required .hbase.pb.Permission permission = 3;
- setPermission(AccessControlProtos.Permission.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
required .hbase.pb.Permission permission = 3;
- setPermissions(int, AccessControlProtos.Permission) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
repeated .hbase.pb.Permission permissions = 2;
- setPermissions(int, AccessControlProtos.Permission.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
repeated .hbase.pb.Permission permissions = 2;
- setPong(String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse.Builder
-
required string pong = 1;
- setPongBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.PingResponse.Builder
-
required string pong = 1;
- setPort(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
optional uint32 port = 2;
- setPort(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional int32 port = 4;
- setPosition(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationHLogPosition.Builder
-
required int64 position = 1;
- setPrefix(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnPrefixFilter.Builder
-
required bytes prefix = 1;
- setPrefix(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.PrefixFilter.Builder
-
optional bytes prefix = 1;
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional uint32 priority = 6;
0 is NORMAL priority. 200 is HIGH.
- setProcessed(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
optional bool processed = 2;
used for mutate to indicate processed only
- setProcessed(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
optional bool processed = 2;
used for mutate to indicate processed only
- setQualifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional bytes qualifier = 3;
- setQualifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes qualifier = 3;
- setQualifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
required bytes qualifier = 3;
- setQualifier(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column.Builder
-
repeated bytes qualifier = 2;
- setQualifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required bytes qualifier = 3;
- setQualifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional bytes qualifier = 1;
- setQualifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.ColumnValueFilter.Builder
-
required bytes qualifier = 2;
- setQualifier(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TableProtos.TableName.Builder
-
required bytes qualifier = 2;
- setQualifiers(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.FirstKeyValueMatchingQualifiersFilter.Builder
-
repeated bytes qualifiers = 1;
- setQualifierValue(int, ClientProtos.MutationProto.ColumnValue.QualifierValue) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- setQualifierValue(int, ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.Builder
-
repeated .hbase.pb.MutationProto.ColumnValue.QualifierValue qualifier_value = 2;
- setQuota(QuotaProtos.SpaceQuota) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest.Builder
-
optional .hbase.pb.SpaceQuota quota = 1;
- setQuota(QuotaProtos.SpaceQuota.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceLimitRequest.Builder
-
optional .hbase.pb.SpaceQuota quota = 1;
- setQuotaLimit(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional uint64 quota_limit = 3;
- setQuotaStatus(QuotaProtos.SpaceQuotaStatus) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- setQuotaStatus(QuotaProtos.SpaceQuotaStatus.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional .hbase.pb.SpaceQuotaStatus quota_status = 1;
- setQuotaUsage(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaSnapshot.Builder
-
optional uint64 quota_usage = 2;
- setRange(FSProtos.Reference.Range) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Builder
-
required .hbase.pb.Reference.Range range = 2;
- setReadNum(QuotaProtos.TimedQuota) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_num = 5;
- setReadNum(QuotaProtos.TimedQuota.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_num = 5;
- setReadRequestsCount(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 read_requests_count = 8;
the current total read requests made to region
- setReadSize(QuotaProtos.TimedQuota) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_size = 6;
- setReadSize(QuotaProtos.TimedQuota.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota read_size = 6;
- setReadType(ClientProtos.Scan.ReadType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.Scan.ReadType readType = 23 [default = DEFAULT];
- setRealUser(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
optional string real_user = 2;
- setRealUserBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.UserInformation.Builder
-
optional string real_user = 2;
- setReason(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest.Builder
-
required string reason = 1;
- setReasonBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.StopServerRequest.Builder
-
required string reason = 1;
- setReference(FSProtos.Reference) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
optional .hbase.pb.Reference reference = 2;
- setReference(FSProtos.Reference.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder
-
optional .hbase.pb.Reference reference = 2;
- setRegex(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest.Builder
-
optional string regex = 1;
- setRegexBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.ListLabelsRequest.Builder
-
optional string regex = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CompactRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- setRegion(HBaseProtos.RegionInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- setRegion(HBaseProtos.RegionInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder
-
required .hbase.pb.RegionInfo region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.BulkLoadHFileRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CleanupBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(int, HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- setRegion(int, HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateRequest.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 2;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionAction.Builder
-
required .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 1;
- setRegion(HBaseProtos.RegionInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.RegionInfo region = 4;
- setRegion(HBaseProtos.RegionInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.RegionInfo region = 4;
- setRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 4;
- setRegion(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MultiRowMutationProtos.MutateRowsRequest.Builder
-
optional .hbase.pb.RegionSpecifier region = 4;
- setRegionA(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_a = 1;
- setRegionA(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_a = 1;
- setRegionAction(int, ClientProtos.RegionAction) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- setRegionAction(int, ClientProtos.RegionAction.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRequest.Builder
-
repeated .hbase.pb.RegionAction regionAction = 1;
- setRegionActionResult(int, ClientProtos.RegionActionResult) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- setRegionActionResult(int, ClientProtos.RegionActionResult.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
repeated .hbase.pb.RegionActionResult regionActionResult = 1;
- setRegionB(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_b = 2;
- setRegionB(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.MergeRegionsRequest.Builder
-
required .hbase.pb.RegionSpecifier region_b = 2;
- setRegionId(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
required uint64 region_id = 1;
- setRegionInfo(int, HBaseProtos.RegionInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- setRegionInfo(int, HBaseProtos.RegionInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetOnlineRegionResponse.Builder
-
repeated .hbase.pb.RegionInfo region_info = 1;
- setRegionInfo(HBaseProtos.RegionInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- setRegionInfo(HBaseProtos.RegionInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetRegionInfoResponse.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- setRegionInfo(HBaseProtos.RegionInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest.Builder
-
required .hbase.pb.RegionInfo regionInfo = 1;
- setRegionInfo(HBaseProtos.RegionInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.WarmupRegionRequest.Builder
-
required .hbase.pb.RegionInfo regionInfo = 1;
- setRegionInfo(HBaseProtos.RegionInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- setRegionInfo(HBaseProtos.RegionInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
required .hbase.pb.RegionInfo region_info = 1;
- setRegionInfo(HBaseProtos.RegionInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
required .hbase.pb.RegionInfo region_info = 2;
- setRegionInfo(HBaseProtos.RegionInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
required .hbase.pb.RegionInfo region_info = 2;
- setRegionLoads(int, ClusterStatusProtos.RegionLoad) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- setRegionLoads(int, ClusterStatusProtos.RegionLoad.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.RegionLoad region_loads = 5;
Information on the load of individual regions.
- setRegionManifests(int, SnapshotProtos.SnapshotRegionManifest) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- setRegionManifests(int, SnapshotProtos.SnapshotRegionManifest.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
repeated .hbase.pb.SnapshotRegionManifest region_manifests = 2;
- setRegionName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
optional bytes region_name = 7;
full region name
- setRegionName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
optional bytes region_name = 6;
full region name
- setRegionName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional bytes region_name = 7;
full region name
- setRegionsInTransition(int, ClusterStatusProtos.RegionInTransition) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- setRegionsInTransition(int, ClusterStatusProtos.RegionInTransition.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ClusterStatus.Builder
-
repeated .hbase.pb.RegionInTransition regions_in_transition = 4;
- setRegionSpecifier(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- setRegionSpecifier(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
required .hbase.pb.RegionSpecifier region_specifier = 1;
the region specifier
- setRegionState(ClusterStatusProtos.RegionState) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionState region_state = 2;
- setRegionState(ClusterStatusProtos.RegionState.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionState region_state = 2;
- setRegionStatistics(ClientProtos.MultiRegionLoadStats) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- setRegionStatistics(ClientProtos.MultiRegionLoadStats.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiResponse.Builder
-
optional .hbase.pb.MultiRegionLoadStats regionStatistics = 3;
- setRegionToFlush(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.RollWALWriterResponse.Builder
-
repeated bytes region_to_flush = 1;
A list of encoded name of regions to flush
- setRemove(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
optional bool remove = 3 [default = false];
When true, remove the quota.
- setRenew(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool renew = 10 [default = false];
- setReplicaId(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional int32 replica_id = 7 [default = 0];
- setReplicationClusterId(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string replicationClusterId = 2;
- setReplicationClusterIdBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string replicationClusterId = 2;
- setReplicationEndpointImpl(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
optional string replicationEndpointImpl = 2;
- setReplicationEndpointImplBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
optional string replicationEndpointImpl = 2;
- setReplicationLag(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint64 replicationLag = 5;
- setReplLoadSink(ClusterStatusProtos.ReplicationLoadSink) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- setReplLoadSink(ClusterStatusProtos.ReplicationLoadSink.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional .hbase.pb.ReplicationLoadSink replLoadSink = 11;
The replicationLoadSink for the replication Sink status of this region server.
- setReplLoadSource(int, ClusterStatusProtos.ReplicationLoadSource) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- setReplLoadSource(int, ClusterStatusProtos.ReplicationLoadSource.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
repeated .hbase.pb.ReplicationLoadSource replLoadSource = 10;
The replicationLoadSource for the replication Source status of this region server.
- setReportEndTime(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 report_end_time = 8;
Time when report was generated.
- setReportStartTime(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 report_start_time = 7;
Time when incremental (non-total) counts began being calculated (e.g. number_of_requests)
time is measured as the difference, measured in milliseconds, between the current time
and midnight, January 1, 1970 UTC.
- setReqNum(QuotaProtos.TimedQuota) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_num = 1;
- setReqNum(QuotaProtos.TimedQuota.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_num = 1;
- setReqSize(QuotaProtos.TimedQuota) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_size = 2;
- setReqSize(QuotaProtos.TimedQuota.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota req_size = 2;
- setRequest(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required bytes request = 4;
- setRequestParam(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional bool request_param = 4;
If true, then a pb Message param follows.
- setResponse(String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse.Builder
-
optional string response = 1;
- setResponse(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesResponse.Builder
-
optional uint32 response = 1;
- setResponseBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.coprocessor.protobuf.generated.PingProtos.HelloResponse.Builder
-
optional string response = 1;
- setResult(ClientProtos.Result) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse.Builder
-
optional .hbase.pb.Result result = 1;
- setResult(ClientProtos.Result.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.GetResponse.Builder
-
optional .hbase.pb.Result result = 1;
- setResult(ClientProtos.Result) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
optional .hbase.pb.Result result = 1;
- setResult(ClientProtos.Result.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutateResponse.Builder
-
optional .hbase.pb.Result result = 1;
- setResult(ClientProtos.Result) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.Result result = 2;
- setResult(ClientProtos.Result.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.Result result = 2;
- setResult(int, ClientProtos.RegionActionResult) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
repeated .hbase.pb.RegionActionResult result = 1;
- setResult(int, ClientProtos.RegionActionResult.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsResponse.Builder
-
repeated .hbase.pb.RegionActionResult result = 1;
- setResultOrException(int, ClientProtos.ResultOrException) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- setResultOrException(int, ClientProtos.ResultOrException.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.RegionActionResult.Builder
-
repeated .hbase.pb.ResultOrException resultOrException = 1;
- setResults(int, ClientProtos.Result) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- setResults(int, ClientProtos.Result.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
repeated .hbase.pb.Result results = 5;
If cells are not carried in an accompanying cellblock, then they are pb'd here.
- setReversed(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bool reversed = 15 [default = false];
- setRevision(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string revision = 3;
- setRevisionBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string revision = 3;
- setRootIndexSizeKB(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 root_index_size_KB = 12;
The current total size of root-level indexes for the region, in KB.
- setRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes row = 1;
- setRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
required bytes row = 1;
- setRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
required bytes row = 1;
- setRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required bytes row = 1;
- setRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Cursor.Builder
-
optional bytes row = 1;
- setRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
required bytes row = 1;
- setRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional bytes row = 1;
- setRowProcessorClassName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
required string row_processor_class_name = 1;
- setRowProcessorClassNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
required string row_processor_class_name = 1;
- setRowProcessorInitializerMessage(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional bytes row_processor_initializer_message = 3;
- setRowProcessorInitializerMessageName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional string row_processor_initializer_message_name = 2;
- setRowProcessorInitializerMessageNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessRequest.Builder
-
optional string row_processor_initializer_message_name = 2;
- setRowProcessorResult(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RowProcessorProtos.ProcessResponse.Builder
-
required bytes row_processor_result = 1;
- setRowRangeList(int, FilterProtos.RowRange) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- setRowRangeList(int, FilterProtos.RowRange.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultiRowRangeFilter.Builder
-
repeated .hbase.pb.RowRange row_range_list = 1;
- setRpcVersion(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.Master.Builder
-
optional uint32 rpc_version = 2;
Major RPC version so that clients can know what version the master can accept.
- setRpcVersion(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
optional uint32 rpc_version = 2;
The major version of the rpc the server speaks.
- setScan(ClientProtos.Scan) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.Scan scan = 2;
- setScan(ClientProtos.Scan.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional .hbase.pb.Scan scan = 2;
- setScanMetrics(MapReduceProtos.ScanMetrics) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- setScanMetrics(MapReduceProtos.ScanMetrics.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional .hbase.pb.ScanMetrics scan_metrics = 10;
This field is filled in if the client has requested that scan metrics be tracked.
- setScannerId(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional uint64 scanner_id = 3;
- setScannerId(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional uint64 scanner_id = 2;
- setScope(QuotaProtos.QuotaScope) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
optional .hbase.pb.QuotaScope scope = 4 [default = MACHINE];
- setScopes(int, WALProtos.FamilyScope) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- setScopes(int, WALProtos.FamilyScope.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
repeated .hbase.pb.FamilyScope scopes = 6;
- setScopeType(WALProtos.ScopeType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FamilyScope.Builder
-
required .hbase.pb.ScopeType scope_type = 2;
- setSecond(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.BytesBytesPair.Builder
-
required bytes second = 2;
- setSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.StoreSequenceId.Builder
-
required uint64 sequence_id = 2;
- setSequenceNumber(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
optional int64 sequence_number = 6;
- setSerializedComparator(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.Comparator.Builder
-
optional bytes serialized_comparator = 2;
- setSerializedFilter(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.Filter.Builder
-
optional bytes serialized_filter = 2;
- setServer(HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerName server = 1;
- setServer(HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerName server = 1;
- setServer(HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- setServer(HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
optional .hbase.pb.ServerName server = 6;
Server who opened the region
- setServer(HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- setServer(HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
required .hbase.pb.ServerName server = 1;
The ServerName hosting the meta region currently, or destination server,
if meta region is in transition.
- setServerInfo(AdminProtos.ServerInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse.Builder
-
required .hbase.pb.ServerInfo server_info = 1;
- setServerInfo(AdminProtos.ServerInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetServerInfoResponse.Builder
-
required .hbase.pb.ServerInfo server_info = 1;
- setServerLoad(ClusterStatusProtos.ServerLoad) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerLoad server_load = 2;
- setServerLoad(ClusterStatusProtos.ServerLoad.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.LiveServerInfo.Builder
-
required .hbase.pb.ServerLoad server_load = 2;
- setServerName(HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
required .hbase.pb.ServerName server_name = 1;
- setServerName(HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
required .hbase.pb.ServerName server_name = 1;
- setServerName(HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- setServerName(HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
required .hbase.pb.ServerName server_name = 2;
optional RecoveryMode DEPRECATED_mode = 3 [default = UNKNOWN];
- setServers(int, HBaseProtos.ServerName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.ServerName servers = 4;
- setServers(int, HBaseProtos.ServerName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.ServerName servers = 4;
- setServerStartCode(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional uint64 serverStartCode = 5;
the intended server for this RPC.
- setServerStartCode(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.Builder
-
optional uint64 serverStartCode = 2;
the intended server for this RPC.
- setService(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.Token.Builder
-
optional bytes service = 3;
- setService(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional string service = 4;
- setServiceBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.DelegationToken.Builder
-
optional string service = 4;
- setServiceCall(ClientProtos.CoprocessorServiceCall) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- setServiceCall(ClientProtos.CoprocessorServiceCall.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Action.Builder
-
optional .hbase.pb.CoprocessorServiceCall service_call = 4;
- setServiceName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required string service_name = 2;
- setServiceName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string service_name = 2;
- setServiceNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceCall.Builder
-
required string service_name = 2;
- setServiceNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional string service_name = 2;
- setServiceResult(ClientProtos.CoprocessorServiceResult) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- setServiceResult(ClientProtos.CoprocessorServiceResult.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ResultOrException.Builder
-
optional .hbase.pb.CoprocessorServiceResult service_result = 4;
result if this was a coprocessor service call
- setShare(float) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
optional float share = 3;
- setSignature(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
required string signature = 1;
the unique signature of the procedure
- setSignatureBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription.Builder
-
required string signature = 1;
the unique signature of the procedure
- setSingleColumnValueFilter(FilterProtos.SingleColumnValueFilter) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter.Builder
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- setSingleColumnValueFilter(FilterProtos.SingleColumnValueFilter.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter.Builder
-
required .hbase.pb.SingleColumnValueFilter single_column_value_filter = 1;
- setSizeOfLogQueue(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint32 sizeOfLogQueue = 3;
- setSmall(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
已过时。
- setSoftLimit(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
optional uint64 soft_limit = 1;
The limit of bytes for this quota
- setSoftLimit(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
optional uint64 soft_limit = 2;
- setSortedPrefixes(int, ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter.Builder
-
repeated bytes sorted_prefixes = 1;
- setSource(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional string source = 1;
- setSourceBaseNamespaceDirPath(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string sourceBaseNamespaceDirPath = 3;
- setSourceBaseNamespaceDirPathBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string sourceBaseNamespaceDirPath = 3;
- setSourceBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage.Builder
-
optional string source = 1;
- setSourceHFileArchiveDirPath(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string sourceHFileArchiveDirPath = 4;
- setSourceHFileArchiveDirPathBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest.Builder
-
optional string sourceHFileArchiveDirPath = 4;
- setSpace(QuotaProtos.SpaceQuota) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.SpaceQuota space = 3;
- setSpace(QuotaProtos.SpaceQuota.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.SpaceQuota space = 3;
- setSpec(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionSpecifier spec = 1;
- setSpec(HBaseProtos.RegionSpecifier.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition.Builder
-
required .hbase.pb.RegionSpecifier spec = 1;
- setSplit(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bool split = 6;
- setSplitkey(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference.Builder
-
required bytes splitkey = 1;
- setSplitPoint(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest.Builder
-
optional bytes split_point = 2;
- setSrcChecksum(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string src_checksum = 6;
- setSrcChecksumBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string src_checksum = 6;
- setStackTrace(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string stack_trace = 2;
Exception stack trace from the server side
- setStackTraceBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse.Builder
-
optional string stack_trace = 2;
Exception stack trace from the server side
- setStale(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result.Builder
-
optional bool stale = 4 [default = false];
Whether or not the results are coming from possibly stale data
- setStale(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional bool stale = 6;
- setStamp(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
optional uint64 stamp = 3;
- setStartCode(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName.Builder
-
optional uint64 start_code = 3;
- setStartDate(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp.Builder
-
required string start_date = 1;
If this znode is present, cluster is up.
- setStartDateBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp.Builder
-
required string start_date = 1;
If this znode is present, cluster is up.
- setStartKey(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
optional bytes start_key = 3;
- setStartRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bytes start_row = 3;
- setStartRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bytes start_row = 1;
- setStartRowInclusive(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bool start_row_inclusive = 2;
- setStat(int, ClientProtos.RegionLoadStats) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- setStat(int, ClientProtos.RegionLoadStats.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats.Builder
-
repeated .hbase.pb.RegionLoadStats stat = 2;
- setState(ClusterStatusProtos.RegionState.State) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.Builder
-
required .hbase.pb.RegionState.State state = 2;
- setState(HBaseProtos.TableState.State) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState.Builder
-
required .hbase.pb.TableState.State state = 1;
This is the table's state.
- setState(ZooKeeperProtos.DeprecatedTableState.State) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState.Builder
-
required .hbase.pb.DeprecatedTableState.State state = 1 [default = ENABLED];
This is the table's state.
- setState(ClusterStatusProtos.RegionState.State) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer.Builder
-
optional .hbase.pb.RegionState.State state = 3;
State of the region transition.
- setState(ZooKeeperProtos.ReplicationState.State) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState.Builder
-
required .hbase.pb.ReplicationState.State state = 1;
- setState(ZooKeeperProtos.SplitLogTask.State) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask.Builder
-
required .hbase.pb.SplitLogTask.State state = 1;
- setStopRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional bytes stop_row = 4;
- setStopRow(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bytes stop_row = 3;
- setStopRowInclusive(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange.Builder
-
optional bool stop_row_inclusive = 4;
- setStopRowKey(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter.Builder
-
optional bytes stop_row_key = 1;
- setStoreCompleteSequenceId(int, ClusterStatusProtos.StoreSequenceId) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- setStoreCompleteSequenceId(int, ClusterStatusProtos.StoreSequenceId.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
repeated .hbase.pb.StoreSequenceId store_complete_sequence_id = 18;
the most recent sequence Id of store from cache flush
- setStoreFile(int, String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse.Builder
-
repeated string store_file = 1;
- setStoreFile(int, String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
repeated string store_file = 3;
relative to store dir
- setStorefileIndexSizeKB(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 storefile_index_size_KB = 7;
The current total size of root-level store file indexes for the region,
in KB.
- setStorefiles(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 storefiles = 3;
the number of storefiles for the region
- setStoreFiles(int, SnapshotProtos.SnapshotRegionManifest.StoreFile) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- setStoreFiles(int, SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder
-
repeated .hbase.pb.SnapshotRegionManifest.StoreFile store_files = 2;
- setStoreFileSizeBytes(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
optional uint64 store_file_size_bytes = 4;
size of store file
- setStorefileSizeMB(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 storefile_size_MB = 5;
the current total size of the store files for the region, in MB
- setStoreFlushes(int, WALProtos.FlushDescriptor.StoreFlushDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- setStoreFlushes(int, WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
repeated .hbase.pb.FlushDescriptor.StoreFlushDescriptor store_flushes = 5;
- setStoreHomeDir(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required string store_home_dir = 6;
relative to region dir
- setStoreHomeDir(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
required string store_home_dir = 2;
relative to region dir
- setStoreHomeDir(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
required string store_home_dir = 2;
relative to region dir
- setStoreHomeDirBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required string store_home_dir = 6;
relative to region dir
- setStoreHomeDirBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor.Builder
-
required string store_home_dir = 2;
relative to region dir
- setStoreHomeDirBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor.Builder
-
required string store_home_dir = 2;
relative to region dir
- setStoreLimit(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional uint32 store_limit = 8;
- setStoreLimit(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 store_limit = 11;
- setStoreOffset(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional uint32 store_offset = 9;
- setStoreOffset(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional uint32 store_offset = 12;
- setStores(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 stores = 2;
the number of stores for the region
- setStores(int, WALProtos.StoreDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- setStores(int, WALProtos.StoreDescriptor.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 3;
- setStores(int, WALProtos.StoreDescriptor) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- setStores(int, WALProtos.StoreDescriptor.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
repeated .hbase.pb.StoreDescriptor stores = 5;
- setStoreSequenceId(int, ClusterStatusProtos.StoreSequenceId) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- setStoreSequenceId(int, ClusterStatusProtos.StoreSequenceId.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds.Builder
-
repeated .hbase.pb.StoreSequenceId store_sequence_id = 2;
- setStoreUncompressedSizeMB(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 store_uncompressed_size_MB = 4;
the total size of the store files for the region, uncompressed, in MB
- setSubstr(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator.Builder
-
required string substr = 1;
- setSubstrBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator.Builder
-
required string substr = 1;
- setTable(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- setTable(HBaseProtos.TableSchema) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.TableSchema table = 3;
- setTable(HBaseProtos.TableSchema.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.MapReduceProtos.TableSnapshotRegionSplit.Builder
-
optional .hbase.pb.TableSchema table = 3;
- setTableBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional string table = 2;
not needed for delete, but checked for in taking snapshot
- setTableCfs(int, ZooKeeperProtos.TableCF) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- setTableCfs(int, ZooKeeperProtos.TableCF.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationPeer.Builder
-
repeated .hbase.pb.TableCF table_cfs = 5;
- setTableName(String) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData.Builder
-
required string table_name = 1;
- setTableName(TableProtos.TableName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional .hbase.pb.TableName table_name = 2;
- setTableName(TableProtos.TableName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional .hbase.pb.TableName table_name = 2;
- setTableName(TableProtos.TableName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional .hbase.pb.TableName table_name = 1;
- setTableName(TableProtos.TableName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.TablePermission.Builder
-
optional .hbase.pb.TableName table_name = 1;
- setTableName(TableProtos.TableName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
required .hbase.pb.TableName table_name = 1;
- setTableName(TableProtos.TableName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.PrepareBulkLoadRequest.Builder
-
required .hbase.pb.TableName table_name = 1;
- setTableName(TableProtos.TableName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
required .hbase.pb.TableName table_name = 2;
- setTableName(TableProtos.TableName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo.Builder
-
required .hbase.pb.TableName table_name = 2;
- setTableName(TableProtos.TableName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
optional .hbase.pb.TableName table_name = 1;
- setTableName(TableProtos.TableName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableSchema.Builder
-
optional .hbase.pb.TableName table_name = 1;
- setTableName(TableProtos.TableName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required .hbase.pb.TableName table_name = 1;
- setTableName(TableProtos.TableName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor.Builder
-
required .hbase.pb.TableName table_name = 1;
- setTableName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor.Builder
-
required bytes table_name = 1;
TODO: WALKey already stores these, might remove
- setTableName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.Builder
-
required bytes table_name = 2;
- setTableName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor.Builder
-
required bytes table_name = 2;
- setTableName(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required bytes table_name = 2;
- setTableName(TableProtos.TableName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
optional .hbase.pb.TableName table_name = 1;
- setTableName(TableProtos.TableName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.TableCF.Builder
-
optional .hbase.pb.TableName table_name = 1;
- setTableNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.ipc.protobuf.generated.TestProcedureProtos.TestTableDDLStateData.Builder
-
required string table_name = 1;
- setTablePermission(AccessControlProtos.TablePermission) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.TablePermission table_permission = 4;
- setTablePermission(AccessControlProtos.TablePermission.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
optional .hbase.pb.TablePermission table_permission = 4;
- setTables(int, TableProtos.TableName) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.TableName tables = 3;
- setTables(int, TableProtos.TableName.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RSGroupProtos.RSGroupInfo.Builder
-
repeated .hbase.pb.TableName tables = 3;
- setTableSchema(HBaseProtos.TableSchema) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
required .hbase.pb.TableSchema table_schema = 1;
- setTableSchema(HBaseProtos.TableSchema.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotDataManifest.Builder
-
required .hbase.pb.TableSchema table_schema = 1;
- setTags(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes tags = 7;
- setTags(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional bytes tags = 7;
- setTags(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional bytes tags = 5;
- setThrottle(QuotaProtos.Throttle) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.Throttle throttle = 2;
- setThrottle(QuotaProtos.Throttle.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas.Builder
-
optional .hbase.pb.Throttle throttle = 2;
- setTimedQuota(QuotaProtos.TimedQuota) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- setTimedQuota(QuotaProtos.TimedQuota.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
optional .hbase.pb.TimedQuota timed_quota = 2;
- setTimeout(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional uint32 timeout = 7;
- setTimeRange(HBaseProtos.TimeRange) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- setTimeRange(HBaseProtos.TimeRange.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Condition.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- setTimeRange(HBaseProtos.TimeRange) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.TimeRange time_range = 5;
- setTimeRange(HBaseProtos.TimeRange.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get.Builder
-
optional .hbase.pb.TimeRange time_range = 5;
- setTimeRange(HBaseProtos.TimeRange) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- setTimeRange(HBaseProtos.TimeRange.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional .hbase.pb.TimeRange time_range = 7;
For some mutations, a result may be returned, in which case,
time range can be specified for potential performance gain
- setTimeRange(HBaseProtos.TimeRange) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- setTimeRange(HBaseProtos.TimeRange.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.Builder
-
optional .hbase.pb.TimeRange time_range = 6;
- setTimeRange(HBaseProtos.TimeRange) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
required .hbase.pb.TimeRange time_range = 2;
- setTimeRange(HBaseProtos.TimeRange.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ColumnFamilyTimeRange.Builder
-
required .hbase.pb.TimeRange time_range = 2;
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional uint64 timestamp = 4;
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional uint64 timestamp = 4;
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Builder
-
optional uint64 timestamp = 4;
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional uint64 timestamp = 3;
- setTimeStampOfLastShippedOp(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource.Builder
-
required uint64 timeStampOfLastShippedOp = 4;
- setTimestamps(int, long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FilterProtos.TimestampsFilter.Builder
-
repeated int64 timestamps = 1 [packed = true];
- setTimeStampsOfLastAppliedOp(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSink.Builder
-
required uint64 timeStampsOfLastAppliedOp = 2;
- setTimeUnit(HBaseProtos.TimeUnit) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota.Builder
-
required .hbase.pb.TimeUnit time_unit = 1;
- setTo(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TimeRange.Builder
-
optional uint64 to = 2;
- setToken(AuthenticationProtos.Token) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse.Builder
-
optional .hbase.pb.Token token = 1;
- setToken(AuthenticationProtos.Token.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.GetAuthenticationTokenResponse.Builder
-
optional .hbase.pb.Token token = 1;
- setTotalCompactingKVs(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 total_compacting_KVs = 10;
the total compacting key values in currently running compaction
- setTotalNumberOfRequests(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint64 total_number_of_requests = 2;
Total Number of requests from the start of the region server.
- setTotalStaticBloomSizeKB(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 total_static_bloom_size_KB = 14;
The total size of all Bloom filter blocks, not just loaded into the
block cache, in KB.
- setTotalStaticIndexSizeKB(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint32 total_static_index_size_KB = 13;
The total size of all index blocks, not just the root level, in KB.
- setTotalUncompressedBytes(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 total_uncompressed_bytes = 4;
- setTrace(int, ErrorHandlingProtos.StackTraceElementMessage) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- setTrace(int, ErrorHandlingProtos.StackTraceElementMessage.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.GenericExceptionMessage.Builder
-
repeated .hbase.pb.StackTraceElementMessage trace = 4;
- setTraceId(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.TracingProtos.RPCTInfo.Builder
-
optional int64 trace_id = 1;
- setTraceInfo(TracingProtos.RPCTInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- setTraceInfo(TracingProtos.RPCTInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.RequestHeader.Builder
-
optional .hbase.pb.RPCTInfo trace_info = 2;
- setTrackScanMetrics(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanRequest.Builder
-
optional bool track_scan_metrics = 9;
- setTransitionInZK(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional bool transition_in_ZK = 3 [default = true];
- setTtl(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse.Builder
-
optional uint32 ttl = 4;
- setType(AccessControlProtos.Permission.Type) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsRequest.Builder
-
optional .hbase.pb.Permission.Type type = 1;
- setType(AccessControlProtos.Permission.Type) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.Permission.Builder
-
required .hbase.pb.Permission.Type type = 1;
- setType(HBaseProtos.RegionSpecifier.RegionSpecifierType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.Builder
-
required .hbase.pb.RegionSpecifier.RegionSpecifierType type = 1;
- setType(HBaseProtos.SnapshotDescription.Type) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional .hbase.pb.SnapshotDescription.Type type = 4 [default = FLUSH];
- setType(QuotaProtos.ThrottleType) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.ThrottleRequest.Builder
-
optional .hbase.pb.ThrottleType type = 1;
- setType(SnapshotProtos.SnapshotFileInfo.Type) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
required .hbase.pb.SnapshotFileInfo.Type type = 1;
- setUncompressedDataIndexSize(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HFileProtos.FileTrailerProto.Builder
-
optional uint64 uncompressed_data_index_size = 3;
- setUpdateInfo(int, AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- setUpdateInfo(int, AdminProtos.UpdateFavoredNodesRequest.RegionUpdateInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.UpdateFavoredNodesRequest.Builder
-
repeated .hbase.pb.UpdateFavoredNodesRequest.RegionUpdateInfo update_info = 1;
- setUrl(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string url = 2;
- setUrlBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string url = 2;
- setUsedHeapMB(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ServerLoad.Builder
-
optional uint32 used_heap_MB = 3;
the amount of used heap, in MB.
- setUser(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UserPermission.Builder
-
required bytes user = 1;
- setUser(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.UserPermissions.Builder
-
required bytes user = 1;
- setUser(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string user = 4;
- setUser(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsRequest.Builder
-
required bytes user = 1;
- setUser(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.GetAuthsResponse.Builder
-
required bytes user = 1;
- setUser(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.SetAuthsRequest.Builder
-
required bytes user = 1;
- setUser(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.UserAuthorizations.Builder
-
required bytes user = 1;
- setUserAuths(int, VisibilityLabelsProtos.UserAuthorizations) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- setUserAuths(int, VisibilityLabelsProtos.UserAuthorizations.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.MultiUserAuthorizations.Builder
-
repeated .hbase.pb.UserAuthorizations userAuths = 1;
- setUserBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string user = 4;
- setUserInfo(RPCProtos.UserInformation) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.UserInformation user_info = 1;
- setUserInfo(RPCProtos.UserInformation.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.UserInformation user_info = 1;
- setUsername(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.TokenIdentifier.Builder
-
required bytes username = 2;
- setUsername(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
optional string username = 1;
- setUsernameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AuthenticationProtos.WhoAmIResponse.Builder
-
optional string username = 1;
- setUserPermission(int, AccessControlProtos.UserPermission) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- setUserPermission(int, AccessControlProtos.UserPermission.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GetUserPermissionsResponse.Builder
-
repeated .hbase.pb.UserPermission user_permission = 1;
- setUserPermission(AccessControlProtos.UserPermission) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- setUserPermission(AccessControlProtos.UserPermission.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.GrantRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- setUserPermission(AccessControlProtos.UserPermission) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- setUserPermission(AccessControlProtos.UserPermission.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.RevokeRequest.Builder
-
required .hbase.pb.UserPermission user_permission = 1;
- setUserPermissions(int, AccessControlProtos.UsersAndPermissions.UserPermissions) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- setUserPermissions(int, AccessControlProtos.UsersAndPermissions.UserPermissions.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AccessControlProtos.UsersAndPermissions.Builder
-
repeated .hbase.pb.UsersAndPermissions.UserPermissions user_permissions = 1;
- setValue(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.Cell.Builder
-
optional bytes value = 6;
- setValue(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.CellProtos.KeyValue.Builder
-
optional bytes value = 6;
- setValue(HBaseProtos.NameBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.NameBytesPair value = 2;
- setValue(HBaseProtos.NameBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResponse.Builder
-
required .hbase.pb.NameBytesPair value = 2;
- setValue(HBaseProtos.NameBytesPair) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult.Builder
-
optional .hbase.pb.NameBytesPair value = 1;
- setValue(HBaseProtos.NameBytesPair.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.CoprocessorServiceResult.Builder
-
optional .hbase.pb.NameBytesPair value = 1;
- setValue(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.ColumnValue.QualifierValue.Builder
-
optional bytes value = 2;
- setValue(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.ByteArrayComparable.Builder
-
optional bytes value = 1;
- setValue(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameBytesPair.Builder
-
optional bytes value = 2;
- setValue(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameInt64Pair.Builder
-
optional int64 value = 2;
- setValue(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
required string value = 2;
- setValue(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionSpecifier.Builder
-
required bytes value = 2;
- setValueBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.NameStringPair.Builder
-
required string value = 2;
- setVersion(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent.Builder
-
required string version = 1;
- setVersion(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Builder
-
optional int32 version = 5;
- setVersion(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string version = 1;
- setVersion(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.Builder
-
optional int32 version = 1;
- setVersionBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.FSProtos.HBaseVersionFileContent.Builder
-
required string version = 1;
- setVersionBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
required string version = 1;
- setVersionInfo(HBaseProtos.VersionInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
optional .hbase.pb.VersionInfo version_info = 2;
- setVersionInfo(HBaseProtos.VersionInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionServerInfo.Builder
-
optional .hbase.pb.VersionInfo version_info = 2;
- setVersionInfo(HBaseProtos.VersionInfo) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.VersionInfo version_info = 5;
- setVersionInfo(HBaseProtos.VersionInfo.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ConnectionHeader.Builder
-
optional .hbase.pb.VersionInfo version_info = 5;
- setVersionMajor(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
optional uint32 version_major = 7;
- setVersionMinor(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo.Builder
-
optional uint32 version_minor = 8;
- setVersionOfClosingNode(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.CloseRegionRequest.Builder
-
optional uint32 version_of_closing_node = 2;
- setVersionOfOfflineNode(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.OpenRegionRequest.RegionOpenInfo.Builder
-
optional uint32 version_of_offline_node = 2;
- setViolationPolicy(QuotaProtos.SpaceViolationPolicy) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota.Builder
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 2;
The action to take when the quota is violated
- setViolationPolicy(QuotaProtos.SpaceViolationPolicy) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuotaStatus.Builder
-
optional .hbase.pb.SpaceViolationPolicy violation_policy = 1;
- setVisLabel(int, VisibilityLabelsProtos.VisibilityLabel) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- setVisLabel(int, VisibilityLabelsProtos.VisibilityLabel.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.VisibilityLabelsProtos.VisibilityLabelsRequest.Builder
-
repeated .hbase.pb.VisibilityLabel visLabel = 1;
- setWalName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string wal_name = 5;
- setWalNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string wal_name = 5;
- setWalServer(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string wal_server = 4;
- setWalServerBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotFileInfo.Builder
-
optional string wal_server = 4;
- setWebuiPort(int) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ServerInfo.Builder
-
optional uint32 webui_port = 2;
- setWriteFlushWalMarker(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionRequest.Builder
-
optional bool write_flush_wal_marker = 3;
whether to write a marker to WAL even if not flushed
- setWriteNum(QuotaProtos.TimedQuota) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_num = 3;
- setWriteNum(QuotaProtos.TimedQuota.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_num = 3;
- setWriterClsName(String) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional string writer_cls_name = 4;
- setWriterClsNameBytes(ByteString) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALHeader.Builder
-
optional string writer_cls_name = 4;
- setWriteRequestsCount(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad.Builder
-
optional uint64 write_requests_count = 9;
the current total write requests made to region
- setWriteSize(QuotaProtos.TimedQuota) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_size = 4;
- setWriteSize(QuotaProtos.TimedQuota.Builder) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Throttle.Builder
-
optional .hbase.pb.TimedQuota write_size = 4;
- setWriteTime(long) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.WALProtos.WALKey.Builder
-
required uint64 write_time = 4;
- setWroteFlushWalMarker(boolean) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.FlushRegionResponse.Builder
-
optional bool wrote_flush_wal_marker = 3;
- SHARE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
- SIGNATURE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ProcedureDescription
-
- SINGLE_COLUMN_VALUE_FILTER_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.FilterProtos.SingleColumnValueExcludeFilter
-
- SIZEOFLOGQUEUE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.ReplicationLoadSource
-
- SKIP_WAL_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Durability
-
SKIP_WAL = 1;
- SKIPFLUSH_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.SnapshotDescription.Type
-
SKIPFLUSH = 2;
- SMALL_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- SnapshotProtos - org.apache.hadoop.hbase.protobuf.generated中的类
-
- SnapshotProtos.SnapshotDataManifest - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotDataManifest
- SnapshotProtos.SnapshotDataManifest.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotDataManifest
- SnapshotProtos.SnapshotDataManifestOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- SnapshotProtos.SnapshotFileInfo - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotFileInfo
- SnapshotProtos.SnapshotFileInfo.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotFileInfo
- SnapshotProtos.SnapshotFileInfo.Type - org.apache.hadoop.hbase.protobuf.generated中的枚举
-
Protobuf enum hbase.pb.SnapshotFileInfo.Type
- SnapshotProtos.SnapshotFileInfoOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- SnapshotProtos.SnapshotRegionManifest - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotRegionManifest
- SnapshotProtos.SnapshotRegionManifest.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotRegionManifest
- SnapshotProtos.SnapshotRegionManifest.FamilyFiles - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotRegionManifest.FamilyFiles
- SnapshotProtos.SnapshotRegionManifest.FamilyFiles.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotRegionManifest.FamilyFiles
- SnapshotProtos.SnapshotRegionManifest.FamilyFilesOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- SnapshotProtos.SnapshotRegionManifest.StoreFile - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotRegionManifest.StoreFile
- SnapshotProtos.SnapshotRegionManifest.StoreFile.Builder - org.apache.hadoop.hbase.protobuf.generated中的类
-
Protobuf type hbase.pb.SnapshotRegionManifest.StoreFile
- SnapshotProtos.SnapshotRegionManifest.StoreFileOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- SnapshotProtos.SnapshotRegionManifestOrBuilder - org.apache.hadoop.hbase.protobuf.generated中的接口
-
- SOFT_LIMIT_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.SpaceQuota
-
- SOFT_LIMIT_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.TimedQuota
-
- SORTED_PREFIXES_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.FilterProtos.MultipleColumnPrefixFilter
-
- SOURCE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ErrorHandlingProtos.ForeignExceptionMessage
-
- SOURCEBASENAMESPACEDIRPATH_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
- SOURCEHFILEARCHIVEDIRPATH_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AdminProtos.ReplicateWALEntryRequest
-
- SPACE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.Quotas
-
- SPACE_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.QuotaProtos.QuotaType
-
SPACE = 2;
- SPEC_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionInTransition
-
- SPLIT_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
- SPLIT_POINT_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AdminProtos.SplitRegionRequest
-
- SPLIT_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.State
-
SPLIT = 8;
server completed split of a region
- SPLITKEY_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.FSProtos.Reference
-
- splitRegion(RpcController, AdminProtos.SplitRegionRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.BlockingInterface
-
- splitRegion(RpcController, AdminProtos.SplitRegionRequest, RpcCallback<AdminProtos.SplitRegionResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Interface
-
rpc SplitRegion(.hbase.pb.SplitRegionRequest) returns (.hbase.pb.SplitRegionResponse);
- splitRegion(RpcController, AdminProtos.SplitRegionRequest, RpcCallback<AdminProtos.SplitRegionResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService
-
rpc SplitRegion(.hbase.pb.SplitRegionRequest) returns (.hbase.pb.SplitRegionResponse);
- splitRegion(RpcController, AdminProtos.SplitRegionRequest, RpcCallback<AdminProtos.SplitRegionResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Stub
-
- SPLITTING_NEW_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.State
-
SPLITTING_NEW = 13;
new region to be created when RS splits a parent
- SPLITTING_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState.State
-
SPLITTING = 7;
server started split of a region
- SRC_CHECKSUM_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.VersionInfo
-
- STACK_TRACE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.RPCProtos.ExceptionResponse
-
- STALE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Result
-
- STALE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.ScanResponse
-
- STAMP_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
- START_CODE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.ServerName
-
- START_DATE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ClusterUp
-
- START_FLUSH_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.FlushAction
-
START_FLUSH = 0;
- START_KEY_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.RegionInfo
-
- START_ROW_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- START_ROW_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- START_ROW_INCLUSIVE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- STAT_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MultiRegionLoadStats
-
- STATE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionState
-
- STATE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.HBaseProtos.TableState
-
- STATE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.DeprecatedTableState
-
- STATE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.MetaRegionServer
-
- STATE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.ReplicationState
-
- STATE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ZooKeeperProtos.SplitLogTask
-
- STOP_ROW_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- STOP_ROW_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- STOP_ROW_INCLUSIVE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.FilterProtos.RowRange
-
- STOP_ROW_KEY_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.FilterProtos.InclusiveStopFilter
-
- stopServer(RpcController, AdminProtos.StopServerRequest) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.BlockingInterface
-
- stopServer(RpcController, AdminProtos.StopServerRequest, RpcCallback<AdminProtos.StopServerResponse>) - 接口 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Interface
-
rpc StopServer(.hbase.pb.StopServerRequest) returns (.hbase.pb.StopServerResponse);
- stopServer(RpcController, AdminProtos.StopServerRequest, RpcCallback<AdminProtos.StopServerResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService
-
rpc StopServer(.hbase.pb.StopServerRequest) returns (.hbase.pb.StopServerResponse);
- stopServer(RpcController, AdminProtos.StopServerRequest, RpcCallback<AdminProtos.StopServerResponse>) - 类 中的方法org.apache.hadoop.hbase.protobuf.generated.AdminProtos.AdminService.Stub
-
- STORE_COMPLETE_SEQUENCE_ID_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- STORE_FILE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.AdminProtos.GetStoreFileResponse
-
- STORE_FILE_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
- STORE_FILE_SIZE_BYTES_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
- STORE_FILES_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.SnapshotProtos.SnapshotRegionManifest.FamilyFiles
-
- STORE_FLUSHES_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor
-
- STORE_HOME_DIR_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.CompactionDescriptor
-
- STORE_HOME_DIR_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.FlushDescriptor.StoreFlushDescriptor
-
- STORE_HOME_DIR_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.StoreDescriptor
-
- STORE_LIMIT_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
- STORE_LIMIT_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- STORE_OFFSET_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Get
-
- STORE_OFFSET_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan
-
- STORE_SEQUENCE_ID_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionStoreSequenceIds
-
- STORE_UNCOMPRESSED_SIZE_MB_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- STOREFILE_INDEX_SIZE_KB_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- STOREFILE_SIZE_MB_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- STOREFILES_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- STORES_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClusterStatusProtos.RegionLoad
-
- STORES_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.BulkLoadDescriptor
-
- STORES_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.WALProtos.RegionEventDescriptor
-
- STREAM_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Scan.ReadType
-
STREAM = 1;
- STRONG_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Consistency
-
STRONG = 0;
- SUBSTR_FIELD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ComparatorProtos.SubstringComparator
-
- SYNC_WAL_VALUE - 枚举 中的静态变量org.apache.hadoop.hbase.protobuf.generated.ClientProtos.MutationProto.Durability
-
SYNC_WAL = 3;